Intel 14700K | Asus ROG Strix z790 GAMING WIFI | 32GB 7200MHZ | ASUS ProArt RTX 4070 SUPER | Fractal North | CORSAIR RM750 | Samsung 2.5TB NVME | Samsung Odyssey G8 OLED
nieuws: Medeoprichter Arm: overname door Nvidia is funest voor bedrijfsmodel ...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
AMD support PCIE4.0, of de huidige AMD hardware echter alles uit PCIE4.0 kan halen is natuurlijk maar de vraag. En dat is nu juist waar die Nvidia man naar uitkijkt, een platform dat PCIE4.0 ten volle kan benutten om er ook daadwerkelijk performance winsten uit te halen voor GPU's.winwiz schreef op dinsdag 15 september 2020 @ 09:17:
[...]
Grappig. Dat platform is er gewoon. Don't mention AMD
Tot op heden lijkt PCIE4 immers (vrijwel) alleen meerwaarde hebben voor storage en zijn de winsten bij GPU's, als ze er al zijn, zeer klein. Zo had HWU laat een review waarbij PCIE3 vs 4 getest werd met een 5700XT en daar zat amper verschil, het "beste" resultaat was een winst van +-3.5%, de meeste resultaten lieten geen verschil zien of zaken binnen de "margin of error".
De kans is er natuurlijk dat de nieuwe generatie meer gaan profiteren van PCIE4.0 maar ik zou er mijn handen nog niet voor in het vuur steken. Zeker niet nadat Nvidia getest heeft een i9 (als Ryzen met PCIE4.0 voor hun betere resultaten had gegeven hadden ze immers vast AMD gebruikt). Daarnaast geeft Nvidia zelf ook al aan dat het maximaal enkele procenten winst geeft.
Mogelijk natuurlijk dat Zen 3 daar nog verschil in kan maken en misschien meer kan profiteren van PCIE4.
[ Voor 37% gewijzigd door Dennism op 15-09-2020 11:34 ]
Ik mis in jouw betoog de rol van fatsoenlijk geschreven software die goed schaalt met de beschikbare hardware. Hoewel niet hetzelfde, moet ik denken aan de threadripper 3990x waar zeker bij release maar bar weinig pakketten de beschikbare 128threads konden aanslingeren.Dennism schreef op dinsdag 15 september 2020 @ 11:28:
[...]
AMD support PCIE4.0, of de huidige AMD hardware echter alles uit PCIE4.0 kan halen is natuurlijk maar de vraag. En dat is nu juist waar die Nvidia man naar uitkijkt, een platform dat PCIE4.0 ten volle kan benutten om er ook daadwerkelijk performance winsten uit te halen voor GPU's.
Tot op heden lijkt PCIE4 immers (vrijwel) alleen meerwaarde hebben voor storage en zijn de winsten bij GPU's, als ze er al zijn, zeer klein. Zo had HWU laat een review waarbij PCIE3 vs 4 getest werd met een 5700XT en daar zat amper verschil, het "beste" resultaat was een winst van +-3.5%, de meeste resultaten lieten geen verschil zien of zaken binnen de "margin of error".
De kans is er natuurlijk dat de nieuwe generatie meer gaan profiteren van PCIE4.0 maar ik zou er mijn handen nog niet voor in het vuur steken. Zeker niet nadat Nvidia getest heeft een i9 (als Ryzen met PCIE4.0 voor hun betere resultaten had gegeven hadden ze immers vast AMD gebruikt). Daarnaast geeft Nvidia zelf ook al aan dat het maximaal enkele procenten winst geeft.
Mogelijk natuurlijk dat Zen 3 daar nog verschil in kan maken en misschien meer kan profiteren van PCIE4.
Wat ik op Tweakers eigenlijk al jaren lees (zelf mis ik de kennis om een gefundeerd oordeel te vellen), is dat devs steeds slordiger worden omdat de hardware toch krachtig genoeg is om het doel te bereiken. Of is dat met bandbreedte (lees pcie4) niet relevant?
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Jim denkt o.a. dat we deze generatie vrij weinig Nvidia gpus uiteindelijk gaan krijgen in laptops als het gebruik zo hoog is.
De uiteindelijke besparing van Samsung 8nm tegenover TSMC 7nm gaat ze en de klanten op andere punten waarschijnlijk geld kosten. Bill of materials voor fatsoenlijke koeling is met 155 euro best hoog. Board partners zullen waarschijnlijk een gedeelte van die kosten dragen.
[ Voor 39% gewijzigd door Sp3ci3s8472 op 15-09-2020 13:29 ]
Als ik me niet vergis is het embargo tot 16 september om 15.00, dus nog even ietsjes langer wachtencomputerjunky schreef op dinsdag 15 september 2020 @ 13:34:
Voor diegene die nu al klaar zitten.
https://countingdownto.com/?c=3211307
Zie nieuws: Nvidia RTX 3070 komt 15 oktober uit en RTX 3080-reviews uitgesteld na...De eerste reviews zullen nu op woensdag 16 september verschijnen, om 15:00 uur Nederlandse tijd.
Zou me er geen enkele zorgen over maken. Onder het meest ondenkbare 100% load scenario zal je systeem rond de 500W verbruiken (die waterkoeler zuipt nogal wat). Realistischer zal tussen de 400-450W gaming load zijn.Protax schreef op dinsdag 15 september 2020 @ 09:05:
Wat is jullie gevoel qua voedingen? Ik heb op dit moment een 650W voeding in mijn systeem, wil uiteraard niet iets slopen (heb de Asus in "pre" order staan).
Mijn setup:
AMD Ryzen 7 2700X
Corsair RM650x PSU / PC voeding
G.Skill DDR4 Trident-Z 2x8GB 3200MHz CL14 RGB
Gigabyte X470 Aorus Gaming 5 WIFI
NZXT H500i - Black Midi Tower Behuizing
NZXT Kraken X62 AM4
Samsung 970 EVO Plus 1TB M.2 SSD
Met daarbij mijn huidige 1080.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Mooi om te zien hoeveel vrijheid de PCB layouter heeft overgelaten aan procurement voor BOM optimalisaties en aan de EE engineer om het ontwerp nog wat te tunen:DaniëlWW2 schreef op dinsdag 15 september 2020 @ 13:12:
Referentie PCB's.
RTX3080
[Afbeelding]
RTX3090
[Afbeelding]
https://videocardz.com/ne...ce-board-designs-pictured
-Alle Tantalen/Polymer caps kunnen ook 3x MLCC op
-Alle 'Elco's' kunnen ook bestuukt worden met 2x polymer/tantaal
-Footprints zijn hierdoor wel een beetje ratjetoe waardoor het een en ander schots en scheef staat
-alle THT connectoren zijn of nog niet gesoldeerd of heel slecht gesoldeerd lijkt het.
(GG85 heeft als droom ooit nog eens PCB design voor een Apple.Tesla/Nvidia te doen
Ik snap ze bezwaren wel, maar de move zelf van Nvidia kan ik ook wel volgen. De bescherming van ARM binnen het VK vind ik persoonlijk bs. Als het zo belangrijk was voor het VK om dit in eigen land te houden hadden er al lang biedingen gelopen vanuit de overheid daar. Dit blijft toch echt een Europa dingetje wat niks te nadele is van Nvidia. Lopende deals lijken gedekt binnen de afspraken die al zijn gemaakt, dus het grootste bezwaar was dan over blijft is dat Nvida hiermee nieuwe deals naar eigen hand kan zetten.DaniëlWW2 schreef op dinsdag 15 september 2020 @ 11:26:
En daar begint het al met ARM. Open oproep van een van de oprichters aan Boris Johnson om de deal te blokkeren of tenminste waarborgen te eisen. Geen voorkeursbehandeling van ARM voor Nvidia en de onwenselijkheid om onder Amerikaans recht te vallen voor de internationale positie van ARM.
nieuws: Medeoprichter Arm: overname door Nvidia is funest voor bedrijfsmodel ...
Nvidia wil er alles aan doen om relevant te blijven naar de toekomst toe. Ze zijn voor GPU markt vrij afhankelijk van de keuzes die Intel en AMD maken. Met dit soort aankopen probeert Nvidia zichzelf te verrijken met een ARM toekomst waarin ze hun eigen platform zouden kunnen uitwerken en een key speler blijven. Intel poogt Nvidia al te bestrijden in het datacenter door eigen producten te ontwikkelen en ook AMD probeert al jaren om aandeel af te pakken.
Stel dat AMD/INTEL straks de GPU volledig willen gaan onderbrengen in hun eigen soc of andere producten dan eigen creaties gaat uitsluiten op hun platform dan staat Nvidia buitenspel. Intel heeft dit als eens willen proberen door de GPU poorten uit te willen faseren en iedereen naar eigen onboard GPU te dwingen. Vanuit die gedachte kan ik deze move juist supporten, want een speler weghouden die kan concurreren gaat op termijn echt wel gebeuren nu er steeds meer soc oplossingen komen. Een derde sterke CPU speler maakt het voor iedereen nog leuker.
Fixed... Amerikanen met hun AM en PM...TheDevilOnLine schreef op dinsdag 15 september 2020 @ 13:51:
[...]
Als ik me niet vergis is het embargo tot 16 september om 15.00, dus nog even ietsjes langer wachten
[...]
Zie nieuws: Nvidia RTX 3070 komt 15 oktober uit en RTX 3080-reviews uitgesteld na...
AdoredTV's analyse komt ook redelijk overeen met die van Moore's Law is Dead een paar dagen terug.Sp3ci3s8472 schreef op dinsdag 15 september 2020 @ 13:26:
[YouTube: Nvidia's Dumbest Decision]
Jim denkt o.a. dat we deze generatie vrij weinig Nvidia gpus uiteindelijk gaan krijgen in laptops als het gebruik zo hoog is.
De uiteindelijke besparing van Samsung 8nm tegenover TSMC 7nm gaat ze en de klanten op andere punten waarschijnlijk geld kosten. Bill of materials voor fatsoenlijke koeling is met 155 euro best hoog. Board partners zullen waarschijnlijk een gedeelte van die kosten dragen.
Als gevolg van de keuze om een soort van "tussen-node" te laten produceren door Samsung i.p.v. een full node bij TSMC spaart Nvidia weliswaar circa $26 per chip uit, maar kan ze de kloksnelheden nauwelijks verhogen t.o.v. de vorige generatie. Om toch tot prestatiewinst te komen moet daarom o.a. het aantal CUDA cores ook meer dan verdubbelen. Alsnog gaat het vermogen van de RTX 3080 en RTX 3090 daarmee door het dak. De enige manier waarop Nvidia kan voorkomen dat de topkaart(en) het volumeniveau van een straaljager zouden krijgen is door serieus werk te maken van het ontwerpen van een nieuwe de koeler die o.a. wordt voorzien van een enorm koelblok. Die koeler werd echter zo duur ($150) dat het Nvidia's gebruikelijke winstmarges aantast. Daarom besluit het bedrijf er maar een zeer beperkt aantal van te produceren en daarom ook mogen de AIB partners dit keer al tegelijk met Nvidia's FE kaarten hun eigen kaarten lanceren.
Jim betwijfelt verder of zelfs de duurste AIB partner modellen de RTX3000 topkaarten zo koel en stil kunnen houden als de FE kaarten dat zullen kunnen. In ieder geval zijn de MSRP prijzen die Nvidia voor Ampere heeft aangekondigd grotendeels onhaalbaar. De "enthusiast gamer" mag uiteindelijk de aanzienlijke meerprijs betalen tussen de niet verkrijgbare FE kaarten en de AIB topkaarten die het koel- en geluidsniveau van die eerste nauwelijks (of met moeite) zullen halen. Natuurlijk krijgen dan uiteindelijk de AIB partners (of wellicht de retailkanalen of de miners?) daarvan de schuld, maar Nvidia zelf ontspringt zo handig de dans, want alle Ampere benchmarks worden gebaseerd op de prachtige prijs-prestatieverhouding van die (ook nog eens relatief stille) FE kaarten.
In grote lijnen zal het in lijnen wel tegen de waarheid aan zitten. Ik vind dat sommige tubers wel heel hard de suggestie aan het doordrukken zijn datchoogen schreef op dinsdag 15 september 2020 @ 15:39:
[...]
AdoredTV's analyse komt ook redelijk overeen met die van Moore's Law is Dead een paar dagen terug.
Als gevolg van de keuze om een soort van "tussen-node" te laten produceren door Samsung i.p.v. een full node bij TSMC spaart Nvidia weliswaar circa $26 per chip uit, maar kan ze de kloksnelheden nauwelijks verhogen t.o.v. de vorige generatie. Om toch tot prestatiewinst te komen moet daarom o.a. het aantal CUDA cores ook meer dan verdubbelen. Alsnog gaat het vermogen van de RTX 3080 en RTX 3090 daarmee door het dak. De enige manier waarop Nvidia kan voorkomen dat de topkaart(en) het volumeniveau van een straaljager zouden krijgen is door serieus werk te maken van het ontwerpen van een nieuwe de koeler die o.a. wordt voorzien van een enorm koelblok. Die koeler werd echter zo duur ($150) dat het Nvidia's gebruikelijke winstmarges aantast. Daarom besluit het bedrijf er maar een zeer beperkt aantal van te produceren en daarom ook mogen de AIB partners dit keer al tegelijk met Nvidia's FE kaarten hun eigen kaarten lanceren.
1. de koeler 150 kost om te maken. Ik vind dat persoonlijk erg hoog ingeschat op een productielijn van koelers.
2. Ze nu allemaal de suggestie wekken dat de FE versie heel beperkt leverbaar gaat zijn. Ik zie niet in waarom dat zou zijn of dat Nvidia dat zouden willen. Zelfs met hogere kosten voor de koeler, snijd Nvidia de AIB, distributeur en de shop weg door ze zelf te leveren. Dit zijn allemaal stations die ook een deel van de winst willen hebben. Dit is allemaal foetsie bij FE versie en marge die ze zelf kunnen houden. Ik vermoed wel dat ze niet all out zullen gaan op deze versie om de partners niet helemaal gek te maken. Maar uiteindelijk zal deze net als turing gewoon te krijgen zijn voor de mensen die hem echt willen. Als de eerste wave kopers die gaan "hoggen" hebben komt dat echt wel goed. Kortom ik vind het een nogal ondoordachte uitspraak dat de FE versie enkel voor de reviewers gaat zijn zoals ze claimen.
Ik heb dit ook al vaker laten ventileren dit zelf ook sh*t te vinden. De chip koel houden is niet het probleem, de afgifte van die warmte wel en daar kun je niks aan doen als fabrikant. Sinds Maxwell heb ik kaarten van Max 200Watt gehad en dat is echt een verademing in herrie, maar vooral comfort door reductie van hitte uitstoot in de kamer. Een GPU van 300Watt+ stoot enorm veel extra hitte je kast uit die de omgeving lekker gaat opstoken. Dan kan de kaart wel koel blijven, maar de pc gebruiker zit dan vervolgens in een sauna te gamen wat echt niet prettig is. Helemaal tussen april en september maakt dat gamen soms zeer oncomfortabel imo. Alleen daarom zou ik eerder neigen naar een 3070 dan een 3080 als upgrade (3090 is helemaal idioot).Jim betwijfelt verder of zelfs de duurste AIB partner modellen de RTX3000 topkaarten zo koel en stil kunnen houden als de FE kaarten dat zullen kunnen. In ieder geval zijn de MSRP prijzen die Nvidia voor Ampere heeft aangekondigd grotendeels onhaalbaar. De "enthusiast gamer" mag uiteindelijk de aanzienlijke meerprijs betalen tussen de niet verkrijgbare FE kaarten en de AIB topkaarten die het koelniveau van die eerste nauwelijks (of met moeite) zullen halen. Natuurlijk krijgen dan uiteindelijk de AIB partners (of wellicht de retailkanalen of de miners?) daarvan de schuld, maar Nvidia zelf ontspringt zo handig de dans, want alle Ampere benchmarks worden gebaseerd op de prachtige prijs-prestatieverhouding van de FE kaarten.
Verder nogal een raar statement dat de AIB met de shit gaat zitten ten koste van Samsung proces. Een betaalbare Ampere kaart verkoopt beter dan een dure Turing, dat is de andere kant van de stuiver.
Ditsjekneck schreef op dinsdag 15 september 2020 @ 16:09:
De chip koel houden is niet het probleem, de afgifte van die warmte wel en daar kun je niks aan doen als fabrikant. Sinds Maxwell heb ik kaarten van Max 200Watt gehad en dat is echt een verademing in herrie, maar vooral comfort door reductie van hitte uitstoot in de kamer. Een GPU van 300Watt+ stoot enorm veel extra hitte je kast uit die de omgeving lekker gaat opstoken. Dan kan de kaart wel koel blijven, maar de pc gebruiker zit dan vervolgens in een sauna te gamen wat echt niet prettig is. Helemaal tussen april en september maakt dat gamen soms zeer oncomfortabel imo. Alleen daarom zou ik eerder neigen naar een 3070 dan een 3080 als upgrade (3090 is helemaal idioot).
Denk ook dat een hoop mensen nog wel terug gaan komen van die 320W die nvidia nodig heeft om deze prestaties te halen. Een 250W kaart genereert imho al een onprettige hoeveelheid warmte.
[ Voor 10% gewijzigd door Help!!!! op 15-09-2020 17:05 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Ikzelf heb een 100Hz scherm, dus zeker de eerste zomer denk ik dat ik hem wel kan limiteren op voltage, fps, power limit, ...
Een airco ook! Maar ja gaat wel wat ver hè voor een GPU...Orky Rulez schreef op dinsdag 15 september 2020 @ 17:36:
Een grote kamerventilator kan dan soelaas bieden.
Ikzelf heb een 100Hz scherm, dus zeker de eerste zomer denk ik dat ik hem wel kan limiteren op voltage, fps, power limit, ...
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Als je je best doet ga je wel grotere verschillen vinden, bv bij Hellblade:Dennism schreef op dinsdag 15 september 2020 @ 11:28:
[...]
AMD support PCIE4.0, of de huidige AMD hardware echter alles uit PCIE4.0 kan halen is natuurlijk maar de vraag. En dat is nu juist waar die Nvidia man naar uitkijkt, een platform dat PCIE4.0 ten volle kan benutten om er ook daadwerkelijk performance winsten uit te halen voor GPU's.
Tot op heden lijkt PCIE4 immers (vrijwel) alleen meerwaarde hebben voor storage en zijn de winsten bij GPU's, als ze er al zijn, zeer klein. Zo had HWU laat een review waarbij PCIE3 vs 4 getest werd met een 5700XT en daar zat amper verschil, het "beste" resultaat was een winst van +-3.5%, de meeste resultaten lieten geen verschil zien of zaken binnen de "margin of error".
De kans is er natuurlijk dat de nieuwe generatie meer gaan profiteren van PCIE4.0 maar ik zou er mijn handen nog niet voor in het vuur steken. Zeker niet nadat Nvidia getest heeft een i9 (als Ryzen met PCIE4.0 voor hun betere resultaten had gegeven hadden ze immers vast AMD gebruikt). Daarnaast geeft Nvidia zelf ook al aan dat het maximaal enkele procenten winst geeft.
Mogelijk natuurlijk dat Zen 3 daar nog verschil in kan maken en misschien meer kan profiteren van PCIE4.
https://www.techpowerup.c...ci-express-scaling/4.html
:fill(white):strip_exif()/f/image/OIgY7wPfkeUTONaF5pRxNAmW.png?f=user_large)
Helaas heeft TPU nog geen 2080ti op PCIe4 getest, maar als de trend doorzet en de kaarten worden sneller...
5700XT hebben ze wel op PCIe4 getest, maar die kaart is simpelweg langzamer en dus zijn de verschillen kleiner. https://www.techpowerup.c...radeon-rx-5700-xt/24.html
Wel raar om te zien dat sommige games juist op lage resolutie een PCIe bottleneck laten zien, en anderen juist op hoge resolutie. Wat voor data zorgt hier dan voor? (blijkbaar niet altijd de drawcalls)?
[ Voor 4% gewijzigd door mitsumark op 15-09-2020 18:07 ]
Verder zal er altijd wel een test te vinden zijn waarbij er een verschil is, de grote vraag gaat echter zijn of PCIE3 en PCIE4 'across the board' verschillen gaan opleveren met de RTX 3000 serie kaarten en Big Navi of dat dit heel erg specifiek gaat zijn per workload / game.
Verwijderd
Dat is wat ik bedoel met 'across the board'.
Daarna kun je altijd nog gaan kijken of er outliers zijn wanneer de meeste tests geen verschil laten zien. Zijn die outliers er, dan kun je altijd je componentkeuze laten afhangen van die outliers, wanneer dat workloads zijn die je vaak zal uitvoeren.
Amd systemen zijn erg populair op dit moment, vooral bij mensen die naast het gamen nog wat serieuzer werk doen waar meer cores voor nodig zijn. Alleen moet je dus eenzelfde systeem zien te vinden, eentje met pcie 3, de ander met pcie 4.mitsumark schreef op dinsdag 15 september 2020 @ 18:59:
(als er uberhaupt een aantal zijn met een AMD systeem).
Maar die test zal vast wel gedaan zijn...
[ Voor 44% gewijzigd door Pirelly op 15-09-2020 19:36 ]
Je kan in je bios altijd snelheild op 3 zetten ipv 4Pirelly schreef op dinsdag 15 september 2020 @ 19:29:
[...]
Amd systemen zijn erg populair op dit moment, vooral bij mensen die naast het gamen nog wat serieuzer werk doen waar meer cores voor nodig zijn. Alleen moet je dus eenzelfde systeem zien te vinden, eentje met pcie 3, de ander met pcie 4.
Maar die test zal vast wel gedaan zijn...
Denk dat bij de eerste reviews morgen dit allemaal aan bod gaat komen
Wie goed doet, die goed ontmoet.
Idd, muv die Chinese(?) website.AtlAntA schreef op dinsdag 15 september 2020 @ 19:43:
Verbaasd me eerlijk gezegd dat er nog zo goed als geen benchmarks zijn uitgelekt.
Niet op voorraad.
Volgens mij worden op dit moment alleen 3080FE's gebenchmarked. Het zal voor NV dan vermoedelijk niet al te moeilijk zijn om te achterhalen wie gegevens aan het lekken is.AtlAntA schreef op dinsdag 15 september 2020 @ 19:43:
Verbaasd me eerlijk gezegd dat er nog zo goed als geen benchmarks zijn uitgelekt.
Als je dat dan in het achterhoofd houdt ga je niet je review exemplaar van de 3090 en 3070 in de waagschaal leggen...Denk ik althans.
Zou wel slim zijn. De Samsung 8nm is super inefficient en Nvidia heeft het aantal cuda cores gigantisch verhoogd. Als je je bedenkt dat een 2080ti een 250-300W verbruik had gemiddeld gezien en deze kaart 320W trekt voor de FE die cherry binned zijn...onsgeluk schreef op dinsdag 15 september 2020 @ 20:25:
[...]
Volgens mij worden op dit moment alleen 3080FE's gebenchmarked. Het zal voor NV dan vermoedelijk niet al te moeilijk zijn om te achterhalen wie gegevens aan het lekken is.
Als je dat dan in het achterhoofd houdt ga je niet je review exemplaar van de 3090 en 3070 in de waagschaal leggen...Denk ik althans.
Een normale third party 3080 met 3x8pin komt gok ik op 350W uit waar de hoger geclockte 370W wel halen. Dan zijn er nog fabrikanten (Kuch Inno3D) die een 2 fan variant op de markt durven te plaatsen?
Die 600W is bij de stekker he, dus voor gebruik van componenten moet je wel efficientie van voeding meenemen.Simbob schreef op dinsdag 15 september 2020 @ 20:33:
https://www.reddit.com/r/...stress_fpu_furmark_power/
Allemaal een nieuwe voeding?
De FE editie heeft ook 2 fans. En kom op, 8nm super inefficient? Vergeleken met wat? Ja vast minder efficient dan 7nm TSMC, vast niet minder efficient dan de oude 12nm van Turing. Heb je ook enige bron dat het 320W voor cherry binned exemplaren is en meer voor andere? (Uiteraard zijn er OC varianten met hoger power limit, maar dan bedoel ik uiteraard vergeleken met de niet OC alternatieven).Santee schreef op dinsdag 15 september 2020 @ 20:32:
[...]
Zou wel slim zijn. De Samsung 8nm is super inefficient en Nvidia heeft het aantal cuda cores gigantisch verhoogd. Als je je bedenkt dat een 2080ti een 250-300W verbruik had gemiddeld gezien en deze kaart 320W trekt voor de FE die cherry binned zijn...
Een normale third party 3080 met 3x8pin komt gok ik op 350W uit waar de hoger geclockte 370W wel halen. Dan zijn er nog fabrikanten (Kuch Inno3D) die een 2 fan variant op de markt durven te plaatsen?
Alleen met een overgeklokte i7 kom je zo hoog.Simbob schreef op dinsdag 15 september 2020 @ 20:33:
https://www.reddit.com/r/...stress_fpu_furmark_power/
Allemaal een nieuwe voeding?
De 309W van de 3080 zelf is prima te noemen en 9 van de 10 mensen kunnen gewoon een goede 550W voeding gebruiken.
TDP is 320w en de meeste kaarten gaan daar (erg veel) overheen zoals je ook kan zien bij de 2080TI die een TDP heeft van 250w.mitsumark schreef op dinsdag 15 september 2020 @ 20:52:
[...]
Alleen met een overgeklokte i7 kom je zo hoog.
De 309W van de 3080 zelf is prima te noemen en 9 van de 10 mensen kunnen gewoon een goede 550W voeding gebruiken.
https://nl.hardware.info/...en-roundup-stroomverbruik
Dus denk eerder dat die naar de 350w gaat.
[ Voor 4% gewijzigd door Enchantress op 15-09-2020 21:11 ]
YouTube: Nvidia's Dumbest DecisionSissors schreef op dinsdag 15 september 2020 @ 20:41:
[...]
Die 600W is bij de stekker he, dus voor gebruik van componenten moet je wel efficientie van voeding meenemen.
[...]
De FE editie heeft ook 2 fans. En kom op, 8nm super inefficient? Vergeleken met wat? Ja vast minder efficient dan 7nm TSMC, vast niet minder efficient dan de oude 12nm van Turing. Heb je ook enige bron dat het 320W voor cherry binned exemplaren is en meer voor andere? (Uiteraard zijn er OC varianten met hoger power limit, maar dan bedoel ik uiteraard vergeleken met de niet OC alternatieven).
Wel efficienter dan de 12nm van turing, maar energieverbruik schaalt natuurlijk lineair met aantal cuda cores en die zijn verdubbeld. Dus ja op zich is het verbruik per transistor een stuk beter dan de 2080ti bijvoorbeeld. Niet per se een officiële bron, maar op meerdere nieuwssites gelezen dan Nvidia zelf wel de beste chips eruit binned voor haar eigen FE. Of dit waar is moet natuurlijk nog blijken. Dus ja, neem het maar met een flinke dosis zout.
Waarom denk je dat de 3080 vergelijkbaar is aan de 2080ti wat betreft het meer verbruiken dan de TDP?Enchantress schreef op dinsdag 15 september 2020 @ 21:10:
[...]
TDP is 320w en de meeste kaarten gaan daar (erg veel) overheen zoals je ook kan zien bij de 2080TI die een TDP heeft van 250w.
https://nl.hardware.info/...en-roundup-stroomverbruik
Dus denk eerder dat die naar de 350w gaat.
Ik haal die 309W letterlijk uit de link:
privaterbok
Some power consumption summary from the video:
They're using aida64 stress FPU, 10700 got 170w, I believe he's unlocked multicore enhance in mobo, thus 4.6G all core no limit well beyond certified 65w range.
And RTX 3080 using Furmark reach 309w
Gokje: Dit is zónder RTX. Dus die RTX cores zitten uit hun neus te eten. Denk als je een game speelt waar RTX 100% benut wordt dat je verbruik een stuk hoger wordt.mitsumark schreef op dinsdag 15 september 2020 @ 21:21:
[...]
Waarom denk je dat de 3080 vergelijkbaar is aan de 2080ti wat betreft het meer verbruiken dan de TDP?
Ik haal die 309W letterlijk uit de link:
[...]
Vergeet niet dat die 320W van de 3080 total board power is, dus verbruik voor de complete videokaart. Het is inmiddels al meermaals voorbijgekomen dat het GDDR6X geheugen een hoger verbruik heeft dan GDDR6, het is jammer dat sommige mensen dan alleen maar op de GPU blijven focussen.
[ Voor 6% gewijzigd door XWB op 15-09-2020 21:28 ]
Omdat dat altijd al zo geweest is bij zowel Nvidia als AMD. Ik zie dan ook geen rede waarom dat bij de 3080 plots anders is.mitsumark schreef op dinsdag 15 september 2020 @ 21:21:
[...]
Waarom denk je dat de 3080 vergelijkbaar is aan de 2080ti wat betreft het meer verbruiken dan de TDP?
Ik haal die 309W letterlijk uit de link:
[...]
We zullen het bij de reviews gaan zien morgen en vooral bij de andere partijen. (MSI, Asus enz)
Zonder geheugen werkt de videokaart niet, dus moet je dat erbij rekenen.XWB schreef op dinsdag 15 september 2020 @ 21:24:
Samsung 8nm is helemaal niet inefficient. De 3070 is zelf zuiniger dan de RTX 2080 Ti, met gelijkaardige prestaties. Gek genoeg heeft niemand het hierover.
Vergeet niet dat die 320W van de 3080 total board power is, dus verbruik voor de complete videokaart. Het is inmiddels al meermaals voorbijgekomen dat het GDDR6X geheugen een hoger verbruik heeft dan GDDR6, het is jammer dat sommige mensen dan alleen maar op de GPU blijven focussen.
Nou ja, kijk de video die ik linkte maar. Het blijft een te gek TDP voor de gehele kaart. 3090 kan bijna 400W hitten, dat vind ik toch wel echt gigantisch. Titans hebben al jaren 250W tdp op turing na (280W).XWB schreef op dinsdag 15 september 2020 @ 21:24:
Samsung 8nm is helemaal niet inefficient. De 3070 is zelf zuiniger dan de RTX 2080 Ti, met gelijkaardige prestaties. Gek genoeg heeft niemand het hierover.
Vergeet niet dat die 320W van de 3080 total board power is, dus verbruik voor de complete videokaart. Het is inmiddels al meermaals voorbijgekomen dat het GDDR6X geheugen een hoger verbruik heeft dan GDDR6, het is jammer dat sommige mensen dan alleen maar op de GPU blijven focussen.
Ik zie het niet terug?Enchantress schreef op dinsdag 15 september 2020 @ 21:28:
[...]
Omdat dat altijd al zo geweest is bij zowel Nvidia als AMD. Ik zie dan ook geen rede waarom dat bij de 3080 plots anders is.
We zullen het bij de reviews gaan zien morgen en vooral bij de andere partijen. (MSI, Asus enz)
2080 super heeft een TDP van 250W, verbruik ligt akelig dicht bij TDP.
https://www.techpowerup.c...0-super-jetstream/31.html
Je link naar HWinfo laat hetzelfde zien, alleen een enkele (extreme/OC) versie komt daar (ver) boven.
True, maar dan moet je ook meerekenen dat de warmte overdracht naar de koeler over een groter oppervlak plaatsvind dan louter vanuit de gpu.Enchantress schreef op dinsdag 15 september 2020 @ 21:29:
[...]
Zonder geheugen werkt de videokaart niet, dus moet je dat erbij rekenen.
Verwijderd
Eerst nog maar eens de echte benchmarks zien of die 3070 net zo snel is.XWB schreef op dinsdag 15 september 2020 @ 21:24:
Samsung 8nm is helemaal niet inefficient. De 3070 is zelf zuiniger dan de RTX 2080 Ti, met gelijkaardige prestaties. Gek genoeg heeft niemand het hierover.
Dan kijk je denk ik niet goed.
Slechts 7 van de 22 kaarten blijven binnen hun TDP bij zowel de 2070, 2080 als de 2080TI.
2070 FE, TDP 175W, verbruik 173WEnchantress schreef op dinsdag 15 september 2020 @ 21:57:
@mitsumark
Dan kijk je denk ik niet goed.
Slechts 7 van de 22 kaarten blijven binnen hun TDP bij zowel de 2070, 2080 als de 2080TI.
2070 Super FE, TDP 215W, verbruik 210W (https://nl.hardware.info/...r-round-up-stroomverbruik)
2080 FE, TDP 225W, verbruik 233W
2080 Super FE, TDP 250W, verbruik 245W (https://nl.hardware.info/...r-round-up-stroomverbruik)
2080ti FE, TDP 250W, verbruik 274W
Alleen de 2080ti lijkt (veel) meer te verbruiken dan zn TDP.
Dat andere board partners daar dan hun eigen draai aan geven en soms wel 20% meer verbruiken ligt niet aan de chip.
Soms zie je ook een versie die minder verbruikt dan het FE model.
3080 FE, TDP 320W, verbruik 315-330W???
[ Voor 3% gewijzigd door mitsumark op 15-09-2020 22:19 ]
Videos van een half uur linken zijn geen onderbouwing tbh. Dan kan ik wel videos van drie uur linken. En die hele video is samen te vatten als: Een random Youtuber maakt wat claims zonder onderbouwing. Maar we gaan het morgen zien: Als de Youtubers gelijk hebben, presteren de AIBs veel slechter dan de FE, als de Youtubers uit hun nek lullen niet. (Overigens zelfs als de FE veel beter presteert betekend het nog steeds niet dat ze over de rest van hun punten gelijk hebben).Santee schreef op dinsdag 15 september 2020 @ 21:32:
[...]
Nou ja, kijk de video die ik linkte maar. Het blijft een te gek TDP voor de gehele kaart. 3090 kan bijna 400W hitten, dat vind ik toch wel echt gigantisch. Titans hebben al jaren 250W tdp op turing na (280W).
01010100011010000110010100100000010011110100111001000101001000000011101000101001
Officieel gezien heb je de volgende cijfers:bouvrie schreef op dinsdag 15 september 2020 @ 22:29:
Kan iemand mij vertellen waarom je een 3x 8pins connector 3080 videokaart boven een 2x 8 connector zou willen? Of andersom?
pcie 8pin = 150W
pcie slot = 75W
totaal 2x 8pin + slot = 375W
Als je weet dat de 3080 320W is officieel en realiteit meestal iets hoger is dan "officieel", dan gaat dat OCd nog iets hoger.
Dan is dat eigenlijk best krap.
ASUS prikt er niet zomaar LEDs op die power output problemen aangeeft.
Stroom gaat een dingetje zijn met deze beesten en 3 8pin (of 1 _propere_ 12pin) is dus te prefereren.
Speculatief uiteraard, die 8pin specs zijn ook maar "op papier" (realiteit is hoger).
[ pctje te zien hier ] - Miauw
Verwijderd
Het maakt op zich niet uit, het is alleen belangrijk dat je de videokaart goed aansluit. Dat betekent dat je de videokaart met minimaal zes 12V draden uit de voeding moet aansluiten. Een videokaart met drie 8 pins connectors verplicht dat in principe. Bij een videokaart met twee 8 pins connectors zullen heel veel mensen de videokaart gaan aansluiten met één kabel welke maar 'drie 12V draden heeft. Dat gaat bij heel veel mensen problemen geven, daarom is de logische oplossing om de videokaart drie 8 pins connectors te geven.bouvrie schreef op dinsdag 15 september 2020 @ 22:29:
Kan iemand mij vertellen waarom je een 3x 8pins connector 3080 videokaart boven een 2x 8 connector zou willen? Of andersom?
Niet echt imo, beetje grof berekenen van verbruik is niet heel lastig. AIBs gaan niet slechter presteren, dat hangt puur van de clocks af. FE gaat denk ik wat zuiniger zijn want ALS ze beter gebinned zijn hebben ze iets minder voltage nodig bij dezelfde clocks.Sissors schreef op dinsdag 15 september 2020 @ 22:26:
[...]
Videos van een half uur linken zijn geen onderbouwing tbh. Dan kan ik wel videos van drie uur linken. En die hele video is samen te vatten als: Een random Youtuber maakt wat claims zonder onderbouwing. Maar we gaan het morgen zien: Als de Youtubers gelijk hebben, presteren de AIBs veel slechter dan de FE, als de Youtubers uit hun nek lullen niet. (Overigens zelfs als de FE veel beter presteert betekend het nog steeds niet dat ze over de rest van hun punten gelijk hebben).
Het hele punt van AdoredTV en MLID was toch dat Nvidia een slecht Samsung proces hebben, waardoor chips heet worden, en dat probleem schuiven ze op AIBs af die nooit een koeler kunnen maken die niet te duur wordt, terwijl Nvidia een dure FE koeler heeft in beperkte oplage.Santee schreef op dinsdag 15 september 2020 @ 22:37:
[...]
Niet echt imo, beetje grof berekenen van verbruik is niet heel lastig. AIBs gaan niet slechter presteren, dat hangt puur van de clocks af. FE gaat denk ik wat zuiniger zijn want ALS ze beter gebinned zijn hebben ze iets minder voltage nodig bij dezelfde clocks.
Als straks blijkt dat bijvoorbeeld een Gigabyte Eagle vergelijkbaar presteert aan een FE, dan is dat verhaal dus onzin.
Ik zat lang de 3090 te ogen maar als er vandaag al 5nm producten komen.. dan is een 8nm product (eigenlijk 10nm+) gewoon tragisch oud. Binnen 6 maanden 7nm+ GPUs (zowel AMD als NVIDIA) en binnen 1,5 jaar 5nm GPUs is mijn schatting. Deze generatie krijgt geen lang leven, wat ook logisch is met dat stroom verbruik.
[ pctje te zien hier ] - Miauw
Het is iets efficienter dan ze nu gebruiken. TSMC 7nm is efficienter, dat is meer het moraal van het verhaal. Het is dat er goede koeling op zit anders was ik geneigd kuch kuch Fermi te roepenXWB schreef op dinsdag 15 september 2020 @ 21:24:
Samsung 8nm is helemaal niet inefficient. De 3070 is zelf zuiniger dan de RTX 2080 Ti, met gelijkaardige prestaties. Gek genoeg heeft niemand het hierover.
Vergeet niet dat die 320W van de 3080 total board power is, dus verbruik voor de complete videokaart. Het is inmiddels al meermaals voorbijgekomen dat het GDDR6X geheugen een hoger verbruik heeft dan GDDR6, het is jammer dat sommige mensen dan alleen maar op de GPU blijven focussen.
Is Furmark wel een goede manier om dit te testen? Tenminste er waren tijden dat deze in de drivers door Nvidia en AMD werd gedetecteerd en de kaarten express niet voluit gingen.mitsumark schreef op dinsdag 15 september 2020 @ 21:21:
[...]
Waarom denk je dat de 3080 vergelijkbaar is aan de 2080ti wat betreft het meer verbruiken dan de TDP?
Ik haal die 309W letterlijk uit de link:
[...]
Het kan maar zo zijn dat je dus in bepaalde games een hoger gebruik gaat zien.
Mijn systeem heeft 2x 8connectors op 1 output vanuit de voeding (gesplit) , dit is dus eigenlijk not done? Ik kan beter een extra connector aansluiten (1x 8connector) en beide bevestigen zodat er meer stroom heen kan?Verwijderd schreef op dinsdag 15 september 2020 @ 22:36:
[...]
Het maakt op zich niet uit, het is alleen belangrijk dat je de videokaart goed aansluit. Dat betekent dat je de videokaart met minimaal zes 12V draden uit de voeding moet aansluiten. Een videokaart met drie 8 pins connectors verplicht dat in principe. Bij een videokaart met twee 8 pins connectors zullen heel veel mensen de videokaart gaan aansluiten met één kabel welke maar 'drie 12V draden heeft. Dat gaat bij heel veel mensen problemen geven, daarom is de logische oplossing om de videokaart drie 8 pins connectors te geven.
01010100011010000110010100100000010011110100111001000101001000000011101000101001
Yes!bouvrie schreef op dinsdag 15 september 2020 @ 22:46:
[...]
Mijn systeem heeft 2x 8connectors op 1 output vanuit de voeding (gesplit) , dit is dus eigenlijk not done? Ik kan beter een extra connector aansluiten (1x 8connector) en beide bevestigen zodat er meer stroom heen kan?
1 kabel vanuit de PSU naar een 2x8pin is not done met deze generatie.
[ pctje te zien hier ] - Miauw
Ouch, veel mensen zullen dit idd gewoon blanco gaan aansluiten. Waarom zou een voeding dit immers aanbieden (als consument denkende).GekkeR schreef op dinsdag 15 september 2020 @ 22:48:
[...]
Yes!
1 kabel vanuit de PSU naar een 2x8pin is not done met deze generatie.
01010100011010000110010100100000010011110100111001000101001000000011101000101001
Nou ja het kan in principe wel als de interne kabel maar dik genoeg is zodat deze niet te warm wordt. Als je awg te hoog is (dunnere kabel), dan wordt die op een gegeven moment zo warm dat het schild gaat smelten. Deze informatie is eigenlijk niet echt bekend en daarom wordt het niet aangeraden.bouvrie schreef op dinsdag 15 september 2020 @ 22:52:
[...]
Ouch, veel mensen zullen dit idd gewoon blanco gaan aansluiten. Waarom zou een voeding dit immers aanbieden (als consument denkende).
Je zou kunnen denken dat 2x8pin=300W volgens spec, dus de kabel móet 300W/12V=25A kunnen hebben, maar blijkbaar geldt dat niet altijd.
Kan de gesplitste kabel wel worden gebruikt of moet je dedicated 2x 8pins gebruiken denk je?GekkeR schreef op dinsdag 15 september 2020 @ 22:48:
[...]
Yes!
1 kabel vanuit de PSU naar een 2x8pin is not done met deze generatie.
01010100011010000110010100100000010011110100111001000101001000000011101000101001
Zolang het gescheiden kabels zijn maakt het niet uit (de gesplitste kabel met 1 los is dus geschikt samen met een andere).bouvrie schreef op dinsdag 15 september 2020 @ 22:55:
[...]
Kan de gesplitste kabel wel worden gebruikt of moet je dedicated 2x 8pins gebruiken denk je?
Er was ergens een plaatje die het makkelijk liet zien, misschien dat ik (of iemand) die nog kan vinden voor je.
[ pctje te zien hier ] - Miauw
slecht 2 van de 7 blijven binnen hun TDP van de RTX 2080TI.
Geen enkele RTX 2080 zit binnen het TDP van 215w.
Slechts 2 van de 7 RTX 2070 kaarten blijven binnen hun TDP.
Nogmaals de link, https://nl.hardware.info/...en-roundup-stroomverbruik
Conclusie is dus dat het veel vaker gebeurt dat kaarten over hun TDP heengaan dan niet.
Zoals gezegd denk ik dus niet dat de 3080 binnen het TDP blijft van 320w maar eerder richting de 340w gaat en hoger voor de aib kaarten wat de koeling niet ten goede komt.
Er zijn helaas nog geen reviews dus zullen we het morgen gaan zien en iets later voor de aib kaarten.
Ik heb deze gezien idd, dankje.GekkeR schreef op dinsdag 15 september 2020 @ 22:58:
[...]
Zolang het gescheiden kabels zijn maakt het niet uit (de gesplitste kabel met 1 los is dus geschikt samen met een andere).
Er was ergens een plaatje die het makkelijk liet zien, misschien dat ik (of iemand) die nog kan vinden voor je.
01010100011010000110010100100000010011110100111001000101001000000011101000101001
Maar dan ga je non stock kaarten met hogere kloksnelheden, extra fans, leds, heavy duty pcb & componenten, etc vergelijken.Enchantress schreef op dinsdag 15 september 2020 @ 23:00:
@mitsumark
slecht 2 van de 7 blijven binnen hun TDP van de RTX 2080TI.
Geen enkele RTX 2080 zit binnen het TDP van 215w.
Slechts 2 van de 7 RTX 2070 kaarten blijven binnen hun TDP.
Nogmaals de link, https://nl.hardware.info/...en-roundup-stroomverbruik
Conclusie is dus dat het veel vaker gebeurt dat kaarten over hun TDP heengaan dan niet.
Zoals gezegd denk ik dus niet dat de 3080 binnen het TDP blijft van 320w maar eerder richting de 340w gaat en hoger voor de aib kaarten wat de koeling niet ten goede komt.
Er zijn helaas nog geen reviews dus zullen we het morgen gaan zien en iets later voor de aib kaarten.
Bijvoorbeeld worst case 2080 uit de HWI link:
https://www.msi.com/Graph...MING-X-TRIO/Specification
Volgens MSI gaat hun high end 2080 al naar 260W, dat lijkt in de praktijk aardig te kloppen, maar dat verschil komt niet door de chip, maar door de "zooi" er omheen, dit soort dingen gaan we morgen nog niet zien op de FE modellen.
2080ti loopt rondjes om de 5700xt. Dat is 12nm vs 7nm. nm zegt dus helemaal niets en het is dan ook een beetje onzin om je daar op te focussen. Uiteindelijk gaat het om de prestaties prijs en power draw. Niet een fake verzonnen getalletje.GekkeR schreef op dinsdag 15 september 2020 @ 22:41:
Zijn er anderen die na de 5nm Apple release nu definitief gekozen hebben voor de 3080 ipv 3090?
Ik zat lang de 3090 te ogen maar als er vandaag al 5nm producten komen.. dan is een 8nm product (eigenlijk 10nm+) gewoon tragisch oud. Binnen 6 maanden 7nm+ GPUs (zowel AMD als NVIDIA) en binnen 1,5 jaar 5nm GPUs is mijn schatting. Deze generatie krijgt geen lang leven, wat ook logisch is met dat stroom verbruik.
Het is geen onzin je daar op te focussen want ik kijk niet eens naar AMD voor die statement.computerjunky schreef op woensdag 16 september 2020 @ 01:44:
[...]
2080ti loopt rondjes om de 5700xt. Dat is 12nm vs 7nm. nm zegt dus helemaal niets en het is dan ook een beetje onzin om je daar op te focussen. Uiteindelijk gaat het om de prestaties prijs en power draw. Niet een fake verzonnen getalletje.
NVIDIA gebruikt TSMC voor zijn kaarten en de huidige top kaart (GA100) gebruikt NU AL TSMC 7nm voor zijn proces.
TSMC 7nm+ was het beste, Samsung 8nm is minder dan TSMC 7nm (wat minder is dan TSMC 7nm+).
Apple komt nu met TSMC 5nm producten wat dus beter is dan TSMC 7nm+, beter is dan TSMC 7nm en daardoor beter is dan Samsung 8nm.
Feit blijft dat TSMC kan produceren op 5nm EN dat al doet voor Apple.
De 3080/3090 loopt nu dus 2 generaties achter wat zal inhouden dat het geen lang leven zal krijgen.
Geen onzin en dus geen idioot idee daarmee te rekenen voor de toekomst, zeker gezien een 3090 1500+ euro kost.
De 2080ti was helemaal zo gek niet omdat er niks anders op de horizon lag, dat verhaal is nu anders en dat is goed om te weten.
[ pctje te zien hier ] - Miauw
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Verwijderd
Je kunt niet even overstappen van het ene naar het andere, daarvoor moet je een zo goed als nieuwe GPU ontwerpen. Dat is zeer onlogisch. Een refresh met wat meer ingeschakelde cudacores en 16Gb GDDDR6X chips op het moment dat die in massaproductie gaan is iets wat wel realistisch is.winwiz schreef op woensdag 16 september 2020 @ 09:05:
Het zal me niets verbazen als je binnen een jaar een refresh krijgt die op TSMC 7 nm gebakken gaat worden. Zijn ze meteen klaar voor de 4000 serie. Zuiniger en mogelijkheden tot meer snelheid
Ik denk het niet, TSMC heeft die capaciteit gewoon niet om. Hun 7nm productie schijnt vol te zitten. Het gerucht gaat dan ook dat Nvidia volgens jaar direct naar 5nm zou willen: https://www.techradar.com...in-an-effort-to-crush-amdwinwiz schreef op woensdag 16 september 2020 @ 09:05:
Het zal me niets verbazen als je binnen een jaar een refresh krijgt die op TSMC 7 nm gebakken gaat worden.
Maar dat zal in eerste instantie wel weer de A100 variant zijn, kan mij niet voorstellen dat er al zo snel consumer uitvoeringen komen.
[ Voor 11% gewijzigd door XWB op 16-09-2020 09:21 ]
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Gemiddeld genomen is de laatste jaren het primaire voordeel van nieuwere procedés geweest dat er meer transistoren op een chip passen. Maar niet dat de kosten per transistor nou zoveel beter werden, of dat de performance per transistor nou zoveel beter werd. Daarom heb je ook gezien dat terwijl GPUs eerst de voorlopers waren bij nieuwe procedés, dat stokje hebben overgedragen aan mobile, en het wel prima vinden één of twee generaties achter te lopen, de voordelen zijn niet meer zo groot voor hun.GekkeR schreef op woensdag 16 september 2020 @ 09:01:
[...]
Het is geen onzin je daar op te focussen want ik kijk niet eens naar AMD voor die statement.
NVIDIA gebruikt TSMC voor zijn kaarten en de huidige top kaart (GA100) gebruikt NU AL TSMC 7nm voor zijn proces.
TSMC 7nm+ was het beste, Samsung 8nm is minder dan TSMC 7nm (wat minder is dan TSMC 7nm+).
Apple komt nu met TSMC 5nm producten wat dus beter is dan TSMC 7nm+, beter is dan TSMC 7nm en daardoor beter is dan Samsung 8nm.
Feit blijft dat TSMC kan produceren op 5nm EN dat al doet voor Apple.
De 3080/3090 loopt nu dus 2 generaties achter wat zal inhouden dat het geen lang leven zal krijgen.
Geen onzin en dus geen idioot idee daarmee te rekenen voor de toekomst, zeker gezien een 3090 1500+ euro kost.
De 2080ti was helemaal zo gek niet omdat er niks anders op de horizon lag, dat verhaal is nu anders en dat is goed om te weten.
En ja TSMC claimt altijd enorme voordelen bij elke nieuwe generatie, en als je het rekensommetje doet zijn er dan twee opties:
1. Of elke generatie GPU is slechter ontworpen dan degene ervoor
2. Of TSMC marketing is nog minder betrouwbaar dan die van Nvidia
En dan zelfs volgens TSMC is 5nm niet veel beter dan 7nm vanille (laat staan ++), buiten transistor density: https://www.anandtech.com...wer-and-performance-gains
Bij een node switch naar een nieuwer/kleiner ontwerp is het vrij gebruikelijk dat de kleinste / low power chips eerst gemaakt worden. Grote chips die een hoger verbruik hebben ala desktop cpu's en gpu's gaat men pas inzetten op een kleinere node als dit volwassen genoeg is. Veel kleine/goedkope chips zijn vaak minder gevoelig voor lage yields want veel stuks en relatief goedkoop en gezien het lage verbruik komen deze vaak zonder veel problemen door de test heen. Zodra je grote complexe chips gaat bakken dan komen zaken zoals uitval en lekstroom pas echt roet in het eten gooien en stijgen de kosten per chip hard.GekkeR schreef op woensdag 16 september 2020 @ 09:01:
[...]
Feit blijft dat TSMC kan produceren op 5nm EN dat al doet voor Apple.
De 3080/3090 loopt nu dus 2 generaties achter wat zal inhouden dat het geen lang leven zal krijgen.
Geen onzin en dus geen idioot idee daarmee te rekenen voor de toekomst, zeker gezien een 3090 1500+ euro kost.
Sowieso is het al niet correct om zo letterlijk fab processen van TSMC/Samsung etc op cijfer te vergelijken. Of denk je dat Intel op 10nm ook al 2 generaties achter loopt?
En dat vooralsnog ook enkel voor zulke kleine chips kan doen.GekkeR schreef op woensdag 16 september 2020 @ 09:01:
Feit blijft dat TSMC kan produceren op 5nm EN dat al doet voor Apple.
De high power versies (voor GPU's dus) van elke node komen altijd pas jaren later. TSMC had 16FF al eind 2013. Apple maakte er pas twee jaar later gebruik van. En voor GPU's was dat pas 2016.
Het procedé dat Apple gebruikt is niet geschikt voor GPU's, laat staan zulke grote chips als de aanstaande generatie GPU's.
En nee, je kunt ook niet zomaar "X nm" met "Y nm" van een andere fabrikant vergelijken. De "afmetingen" van die procedé's zijn al lange tijd klinkklare onzin. TSMC's "12nm" is gewoon hun 16nm procedé met wat wijzigingen waardoor het optisch 12nm lijkt, maar de transistors zijn even groot als op 16FF. Zo is Samsung's 14nm procedé op sommige vlakken beter dan TSMC's 16FF en op sommige vlakken minder - het heeft eigenschappen van zowel 16FF als 12FF. Ze zijn gewoon niet rechtstreeks met elkaar te vergelijken.
[ Voor 31% gewijzigd door Werelds op 16-09-2020 09:36 ]
TSMC 5nm > TSMC 7nm+ > TSMC 7nm > Samsung 8nm
Los van cijfers (5/7/8/10) en andere zaken, is de statement hierboven correct of foutief?
Dat NVIDIA dus iets maakt op Samsung 8nm, geeft vrij veel ruimte voor verbetering niet?
Dat een ontwerp niet zomaar uitwisselbaar is, is bekend.
Er bestaat echter al een GA100 op 7nm (TSMC) en er zijn "geruchten" over GA102 samples op 7nm.
Los van of je denkt dat de gehele Ti reeks 7nm gaat zijn (wat ik denk) en dat de RTX40 reeks op 5nm gaat zitten in 2022 (iets verder weg, maar niet heel erg ver), is mijn initiele verwachting (RTX30 8nm krijgt geen lang leven) volgens mij nog niet zo gek gedacht.
Daarmee rekenen, dus ook niet.
Er kan nog een boel misgaan tot die tijd uiteraard en de 3090 kan je hebben voordat Cyberpunk uitkomt dus ook daar een valide reden om een 3090 te halen.
In mijn geval: computeren is mijn enige geldverslindende hobby dus ik kan alsnog overstag gaan, maar smart money is het (3090) ditmaal zeker niet.
De 2080ti was dit eigenlijk wel, zolang je die maar verkocht had voor 1 September
[ pctje te zien hier ] - Miauw
-- My Gaming Rig Power -- -- <SG> Diabolic --
Volgens mij is 15.00 als tijdstip nu wel vaak genoeg langsgekomen.Xtr3me4me schreef op woensdag 16 september 2020 @ 10:39:
Wanneer kwamen ze nou met de eerste benchmarks op youtube? Was er een specifieke tijdstip ofzo dat ze het mochten plaatsen?
De 3090 koop je als je veel VRAM nodig hebt, of geld teveel hebt. In dat eerste geval is de 3080 geen alternatief, in het tweede geval is de 3080 altijd de betere keus voor prijs/performance.GekkeR schreef op woensdag 16 september 2020 @ 10:30:
Laat ik het houden op:
TSMC 5nm > TSMC 7nm+ > TSMC 7nm > Samsung 8nm
Los van cijfers (5/7/8/10) en andere zaken, is de statement hierboven correct of foutief?
Dat NVIDIA dus iets maakt op Samsung 8nm, geeft vrij veel ruimte voor verbetering niet?
Dat een ontwerp niet zomaar uitwisselbaar is, is bekend.
Er bestaat echter al een GA100 op 7nm (TSMC) en er zijn "geruchten" over GA102 samples op 7nm.
Los van of je denkt dat de gehele Ti reeks 7nm gaat zijn (wat ik denk) en dat de RTX40 reeks op 5nm gaat zitten in 2022 (iets verder weg, maar niet heel erg ver), is mijn initiele verwachting (RTX30 8nm krijgt geen lang leven) volgens mij nog niet zo gek gedacht.
Daarmee rekenen, dus ook niet.
Er kan nog een boel misgaan tot die tijd uiteraard en de 3090 kan je hebben voordat Cyberpunk uitkomt dus ook daar een valide reden om een 3090 te halen.
In mijn geval: computeren is mijn enige geldverslindende hobby dus ik kan alsnog overstag gaan, maar smart money is het (3090) ditmaal zeker niet.
De 2080ti was dit eigenlijk wel, zolang je die maar verkocht had voor 1 September
Voor VRAM, zeker waar (hallo FS2020).Sissors schreef op woensdag 16 september 2020 @ 10:48:
[...]
De 3090 koop je als je veel VRAM nodig hebt, of geld teveel hebt. In dat eerste geval is de 3080 geen alternatief, in het tweede geval is de 3080 altijd de betere keus voor prijs/performance.
Prijs/performance ben ik het echter niet altijd mee eens.
Mijn 2080ti had niet de beste prijs/performance, toch heb ik hem bijna 2 jaar kunnen gebruiken zonder verlies.
Maakt "prijs/performance" dan nog uit als ik vrijwel terug haal wat ik er in stop?
[ pctje te zien hier ] - Miauw
Ik begrijp niet waarom men dit blijft zeggen.. die 8 pins kabels dienen aan een bepaalde standaard te voldoen (minimaal), en een voedingfabrikant gaat dus niet zeggen "goh laten we één 8-pin gaan splitsen naar twee 8-pin zonder een dikkere kabel te gebruiken!!".GekkeR schreef op dinsdag 15 september 2020 @ 22:48:
[...]
Yes!
1 kabel vanuit de PSU naar een 2x8pin is not done met deze generatie.
Er zit gewoon een dikkere kabel aan vanaf de voeding, dat is toch niet zo'n lastig concept om te begrijpen denk ik dan? Er is technisch ook werkelijk helemaal niks aparts aan, het zijn niet meer dan 12V lijnen en grond-lijnen. Door een dikkere kabel kun je meer stroom pompen met minder weerstand en dus verlies en dus warmte in de kabel.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
100% eens en jij hoort ook gelijk te hebben.Kuusj schreef op woensdag 16 september 2020 @ 11:00:
[...]
Ik begrijp niet waarom men dit blijft zeggen.. die 8 pins kabels dienen aan een bepaalde standaard te voldoen (minimaal),
En hier zijn we het oneens, never underestimate cost reductionKuusj schreef op woensdag 16 september 2020 @ 11:00:
[...]
en een voedingfabrikant gaat dus niet zeggen "goh laten we één 8-pin gaan splitsen naar twee 8-pin zonder een dikkere kabel te gebruiken!!".
Wat ook de reden is voor het advies van NVIDIA:
[ pctje te zien hier ] - Miauw
Omdat je dan potentieel ruim 8A door elke 12V draad aan het duwen bent. Dat is wat de gemiddelde stofzuiger ook uit de muur trekt en zo'n kabel+stekker kan behoorlijk warm worden (probeer maar). En dat netsnoer is een stuk robuuster dan het 12V draadje en connector van je 6+2pin kabel.Kuusj schreef op woensdag 16 september 2020 @ 11:00:
[...]
Ik begrijp niet waarom men dit blijft zeggen.. die 8 pins kabels dienen aan een bepaalde standaard te voldoen (minimaal), en een voedingfabrikant gaat dus niet zeggen "goh laten we één 8-pin gaan splitsen naar twee 8-pin zonder een dikkere kabel te gebruiken!!".
Er zit gewoon een dikkere kabel aan vanaf de voeding, dat is toch niet zo'n lastig concept om te begrijpen denk ik dan? Er is technisch ook werkelijk helemaal niks aparts aan, het zijn niet meer dan 12V lijnen en grond-lijnen. Door een dikkere kabel kun je meer stroom pompen met minder weerstand en dus verlies en dus warmte in de kabel.
Maar goed, dit is offtopic. Laten we terug gaan naar nieuws.
[ Voor 3% gewijzigd door Blaat op 16-09-2020 11:17 ]
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Misschien de wet van ohm maar eens uitleggen. Als ze dat snappen, snappen ze ook waarom 2 aparte kabels de betere oplossing is.Blaat schreef op woensdag 16 september 2020 @ 11:15:
[...]
Omdat je dan potentieel ruim 8A door elke 12V draad aan het duwen bent. Dat is wat de gemiddelde stofzuiger ook uit de muur trekt en zo'n kabel+stekker kan behoorlijk warm worden (probeer maar). En dat netsnoer is een stuk robuuster dan het 12V draadje en connector van je 6+2pin kabel.
Maar goed, dit is offtopic. Laten we terug gaan naar nieuws.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Eens, maar ik denk dat een voeding á la Corsair RM650X oid daar niet zo'n problemen heeft. Random plofvoeding X of Y, ja ok.. Dus ik begrijp ook waarom nVidia dit zegt.GekkeR schreef op woensdag 16 september 2020 @ 11:14:
[...]
100% eens en jij hoort ook gelijk te hebben.
[...]
En hier zijn we het oneens, never underestimate cost reduction
Wat ook de reden is voor het advies van NVIDIA:
[Afbeelding]
2 aparte kabels is natuurlijk een betere oplossing, maar bij voorbaat iedere voeding afschrijven die niet over aparte kabels beschikt... Het gaat hier om 40cm kabel, niet om een opgerolde kabelhaspel. Maar goed, daarom is een kaart met 3x8 pinnen wat dat betreft ook 'beter', omdat de hoeveelheid stroom beter verdeeld kan worden.winwiz schreef op woensdag 16 september 2020 @ 11:19:
[...]
Misschien de wet van ohm maar eens uitleggen. Als ze dat snappen, snappen ze ook waarom 2 aparte kabels de betere oplossing is.
Maar goed, beetje offtopic weer. Realiteit is dat niet iedereen een nieuwe voeding gaat kopen voor deze kaarten. Of dat in de praktijk problemen gaat opleveren? Tja. Waarschijnlijk.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Nee, zo simpel is dat niet.GekkeR schreef op woensdag 16 september 2020 @ 10:30:
Laat ik het houden op:
TSMC 5nm > TSMC 7nm+ > TSMC 7nm > Samsung 8nm
Los van cijfers (5/7/8/10) en andere zaken, is de statement hierboven correct of foutief?
Dat NVIDIA dus iets maakt op Samsung 8nm, geeft vrij veel ruimte voor verbetering niet?
Laat ik eerst even voorop stellen dat Nvidia's chips doorgaans liever wat minder dichtheid hebben. Dat is waarom 12FFN bestaat; de N staat daarbij voor Nvidia en het verschil met het normale 12FF is een lagere dichtheid. TSMC's 5nm is een hele grote sprong qua dichtheid en ook 7+ is een flinke sprong ten opzichte van 7 HPC. Samsung's 8nm is vergelijkbaar met TSMC's 7 HPC qua dichtheid. Ter vergelijking, Intel's 10nm heeft een hogere dichtheid dan al deze procedé's, enkel TSMC's 7+ EUV heeft een hogere dichtheid - maar dat is dan weer een geheel ander procedé dat eigenlijk niet te vergelijken is. Dat gebruiken vereist een geheel nieuw fysiek ontwerp.
Als we dan even terug gaan, Samsung/GF's 12nm had een veel hogere dichtheid dan TSMC's 16/12. Het kan dus best zijn dat Nvidia op TSMC's 7FF iets meer spanning nodig heeft voor dezelfde kloksnelheden door de iets hogere dichtheid.
Een kleinere node betekent niet per definitie dat je meer performance per watt krijgt. Het kan best zijn dat TSMC's 7 EUV niet in staat is dezelfde kloksnelheden te bereiken als hun 7 HPC procedé op vergelijkbare spanningen. Vroeger was dat wel zo, maar sinds 28nm is het allemaal veel ingewikkelder geworden.
Nvidia had niet voor Samsung gekozen als er geen goede reden voor was. Kosten en/of capaciteit zullen een factor geweest zijn, maar voor een bedrijf als Nvidia is dat zeker niet de leidende factor. Nogmaals, je kunt niet zomaar zeggen dat Samsung's 8nm "slechter" is dan TSMC's "7nm". Dat verschilt van chip tot chip, het fysieke ontwerp en de gebruikte materialen spelen allemaal een rol. Je hoeft maar naar 40nm te kijken. AMD pompte daar meer dan 10% (uit m'n hoofd was het 12%) meer transistors per vierkante millimeter uit hetzelfde procedé als Nvidia, bereikte veel hogere kloksnelheden én had daar minder spanning voor nodig (en dus lager verbruik). Dat was toen al zo en dat is met 16/14/12/10/8/7/5 allemaal nog veel ingewikkelder geworden.
Ik zal van het weekend eens kijken of ik de verschillende procedé's naast elkaar kan zetten in een tabel wat betreft (mogelijke) dichtheid en dergelijke. Als je puur naar theoretische dichtheid kijkt, zijn TSMC 16/12, Samsung/GF 14/12 en Intel 14 één klasse. TSMC 10/7HPC en Samsung 8 zijn de volgende klasse (Samsung 10 zit er precies tussenin). Daarboven krijg je TSMC 7LPP, Samsung 7EUV en Intel 10. TSMC 7EUV is dan weer een halve stap verder, terwijl 5EUV een geheel nieuwe klasse is en zoals gezegd nog niet bruikbaar is voor HPC.
De 2080 Ti was ook geen "smart money". De prestaties van dat ding zijn nooit het geld waard geweest.smart money is het (3090) ditmaal zeker niet.
De 2080ti was dit eigenlijk wel, zolang je die maar verkocht had voor 1 September
Dus jij denkt dat een RM650X blij gaat worden van een RTX3080/3090 met een unlocked powerlimit waardoor ie over de 500W schiet (dat doen sommige RTX2080Ti's al) en dat gaat dan wel even over 1 enkele kabel?Kuusj schreef op woensdag 16 september 2020 @ 11:24:
[...]
Eens, maar ik denk dat een voeding á la Corsair RM650X oid daar niet zo'n problemen heeft. Random plofvoeding X of Y, ja ok.. Dus ik begrijp ook waarom nVidia dit zegt.
"Dat ding" heeft mij 200 euro gekost over 2 jaar, dus peanuts voor max performance.Werelds schreef op woensdag 16 september 2020 @ 12:08:
[...]
De 2080 Ti was ook geen "smart money". De prestaties van dat ding zijn nooit het geld waard geweest.
Wat was, volgens jou, smarter money?
De 2080 kopen en het overige geld in het aandeel AMD stoppen?
Ik moet toegeven, dat was 2 jaar geleden geen verkeerde keuze geweest
Misschien moet ik het anders brengen en zeggen dat ik niet verwacht dat ik voor 200 euro de 3090 voor 2 jaar kan gebruiken en het daarbij laten
[ pctje te zien hier ] - Miauw
Die unlocked power limit is weer een ander verhaal. Ga je power limiet verhogen, ja dan voldoen twee 8-pins connectoren al snel niet meer.Paprika schreef op woensdag 16 september 2020 @ 12:09:
[...]
Dus jij denkt dat een RM650X blij gaat worden van een RTX3080/3090 met een unlocked powerlimit waardoor ie over de 500W schiet (dat doen sommige RTX2080Ti's al) en dat gaat dan wel even over 1 enkele kabel?
Ik geloof ook direct dat er voedingen worden geleverd met te dunne kabels, tegelijk als ik een 550W voeding heb, met een enkele kabel met twee 8-pins connectoren erop, dan mag ik toch hopen dat die gewoon 300W kunnen leveren, anders is het een bagger voeding, en vraag je je af waarom die dan toch steeds geadviseerd werd. (Nu schijnt de RM550 dus dikkere kabels naar de PCIe power connectoren te hebben lopen, en is er geen probleem).
Waarvoor is die 550W anders? Zodat ik 200W aan RGB LEDs via molex connectoren kan voeden?
En ik begrijp het probleem echt wel, fabrikanten die te dunne kabels gebruiken. Maar je gaat sowieso mensen hebben die slechte voedingen gaan gebruiken (er is een reden dat molex -> PCIe verloopstukjes worden verkocht), en als je nu gewoon voor de zekerheid overal drie, of zelfs vier, 8-pins connectoren op gaat gooien, dan durf ik te wedden dat we volgend jaar voedingen krijgen met drie of vier connectoren per kabel.
Maar je moet dit dus al als fabrikant voor gaan zijn, want tja als je even 100 voeding verfikt voor de lol en gaat RMAen dan is het wel handiger dat je legally nog iets kunt doen als fabrikant.Sissors schreef op woensdag 16 september 2020 @ 12:35:
[...]
Die unlocked power limit is weer een ander verhaal. Ga je power limiet verhogen, ja dan voldoen twee 8-pins connectoren al snel niet meer.
Waarom ga jij er vanuit dat ik een unlimited powerlimit ga draaienPaprika schreef op woensdag 16 september 2020 @ 12:09:
[...]
Dus jij denkt dat een RM650X blij gaat worden van een RTX3080/3090 met een unlocked powerlimit waardoor ie over de 500W schiet (dat doen sommige RTX2080Ti's al) en dat gaat dan wel even over 1 enkele kabel?
Iets met nagel en kop..Sissors schreef op woensdag 16 september 2020 @ 12:35:
[...]
Die unlocked power limit is weer een ander verhaal. Ga je power limiet verhogen, ja dan voldoen twee 8-pins connectoren al snel niet meer.
Ik geloof ook direct dat er voedingen worden geleverd met te dunne kabels, tegelijk als ik een 550W voeding heb, met een enkele kabel met twee 8-pins connectoren erop, dan mag ik toch hopen dat die gewoon 300W kunnen leveren, anders is het een bagger voeding, en vraag je je af waarom die dan toch steeds geadviseerd werd. (Nu schijnt de RM550 dus dikkere kabels naar de PCIe power connectoren te hebben lopen, en is er geen probleem).
Waarvoor is die 550W anders? Zodat ik 200W aan RGB LEDs via molex connectoren kan voeden?
En ik begrijp het probleem echt wel, fabrikanten die te dunne kabels gebruiken. Maar je gaat sowieso mensen hebben die slechte voedingen gaan gebruiken (er is een reden dat molex -> PCIe verloopstukjes worden verkocht), en als je nu gewoon voor de zekerheid overal drie, of zelfs vier, 8-pins connectoren op gaat gooien, dan durf ik te wedden dat we volgend jaar voedingen krijgen met drie of vier connectoren per kabel.
Een voeding gaat niet kapot als hij 100% belast wordt, en als dat wel zo is heb je waarschijnlijk een slechte voeding. Zou een mooie boel worden, voedingsfabrikanten die een 550W voeding verkopen maar er bij zeggen dat je maximaal 400W mag gebruiken, want anders kan hij kapot gaan. Nee, zo werkt dat niet. Zo'n ding moet dat vermogen continue kunnen leveren.
Ik begrijp die hele discussie ook eigenlijk niet. Reken uit wat je systeem zou verbruiken, kijk wat je kaart gaat verbruiken, ga uit van de worst case scenario en bouw nog 50-100W marge in. Dan weet je toch of je goed zit of niet?
[ Voor 56% gewijzigd door Kuusj op 16-09-2020 13:07 ]
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Dat jij iemand hebt gevonden die bereid was (ook) te veel te betalen voor dat ding staat los van hoe slecht de prijs/performance verhouding van dat ding wasGekkeR schreef op woensdag 16 september 2020 @ 12:18:
"Dat ding" heeft mij 200 euro gekost over 2 jaar, dus peanuts voor max performance.
Voor 10xx eigenaren was die hele range niet boeiend. Je kon kiezen voor een sidegrade (1080 Ti en 2080 presteerden gelijk en hun release MSRP's waren hetzelfde), een upgrade van xx60 naar xx80 of iets dergelijks (maar dan had je twee jaar eerder al net zo goed dat geld uit kunnen geven) of 60% meer betalen voor 30% performance. Van het hele RT gebeuren zei ik toen al dat het niet waard zou zijn.Wat was, volgens jou, smarter money?
De 2080 kopen en het overige geld in het aandeel AMD stoppen?
Ik moet toegeven, dat was 2 jaar geleden geen verkeerde keuze geweest
Voor eigenaren van 9xx of oudere kaarten was de RTX 20xx range niet meer of minder interessant dan de 10xx range. Het was allemaal hetzelfde, maar nu met nutteloze RT cores.
Dus nee, tenzij je heel erg toe was aan een upgrade die je om de één of andere reden twee jaar eerder niet had gedaan, was de hele serie geen goede koop. De 2080 Ti onder geen omstandigheden wat mij betreft. Het is even reviews afwachten, maar de 3090 lijkt vooralsnog in verhouding tot de kaarten eronder niet meer of minder voor het geld bieden dan de 2080 Ti toen.
Ik zou dat geld lekker op m'n bankrekening gehouden hebben...en dat heb ik ook gedaan, m'n 1080 Ti doet het nog uitstekend
Dat klinkt een stuk beterMisschien moet ik het anders brengen en zeggen dat ik niet verwacht dat ik voor 200 euro de 3090 voor 2 jaar kan gebruiken en het daarbij laten.
[ Voor 3% gewijzigd door Werelds op 16-09-2020 13:05 ]
Voorbeeld is de Asus TUF 3080 vanaf rond de 730 euro, vergeleken met een Asus Strix van dik over de 900.
Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x
Je krijgt nooit garanties wat betreft overclocking. Kan best zijn dat een goedkopere kaart hoger clockt.Sander64 schreef op woensdag 16 september 2020 @ 13:07:
Wat betreft de verschillende kaarten en prijspunten: Kun je verwachten dat een OC kaart van een fabrikant een betere kwaliteit chip heeft t.o.v. een "normale versie"? En geeft het garanties wat betreft overclockresultaten?
Voorbeeld is de Asus TUF 3080 vanaf rond de 730 euro, vergeleken met een Asus Strix van dik over de 900.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Oke, interessant. Ik had gedacht dat de geteste chips worden ingedeeld in categorieën, wat betreft de silicon lottery. Chips die getest zijn en in staat zijn hoog te clocken, worden bijvoorbeeld gebruikt in de duurdere lineup van kaarten.Kuusj schreef op woensdag 16 september 2020 @ 13:08:
[...]
Je krijgt nooit garanties wat betreft overclocking. Kan best zijn dat een goedkopere kaart hoger clockt.
Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x
Ja dat kan inderdaad, maar dat betekend niet dat het een garantie is op beter overclocken helaas.Sander64 schreef op woensdag 16 september 2020 @ 13:09:
[...]
Oke, interessant. Ik had gedacht dat de geteste chips worden ingedeeld in categorieën, wat betreft de silicon lottery. Chips die getest zijn en in staat zijn hoog te clocken, worden bijvoorbeeld gebruikt in de duurdere lineup van kaarten.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
~ Portal 2 maps: linkje ~ LoL (EUW): Ocwil ~
[ Voor 7% gewijzigd door Sander64 op 16-09-2020 13:20 ]
Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.

