Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
bwerg schreef op donderdag 23 juni 2022 @ 13:36:
[...]

Dat een graka continu 450W verbruikt, prima, dat is een keuze (zeker niet mijn keuze), net zoals dat je in een hummer kunt rijden. Een GTX295 had dertien jaar geleden ook een verbruik van ~300W, nou, prima. Maar die verbruikte dan ook gewoon 300W en niet zo nu en dan even 600W. Het "crazy gaan" is natuurlijk geen goede motivatie om die transient spikes maar te accepteren.

Transient spikes van 100% getuigen gewoon van slecht hardware-ontwerp en het afschuiven van ontwerpproblemen op de PSU-bakker. Terugklokken met een feedback-loop is natuurlijk een stuk makkelijker dan überhaupt je hardware zo instellen dat het niet over een vermogensgrens heen gaat, dat je met een feedback-loop je andere hardware dan frituurt met transient spikes, ach ja...


[...]

Niet heel gek, want de genoemde TDP (en zeker het daadwerkelijke verbruik, wat tegenwoordig vaak hoger ligt) gaat nu letterlijk in de richting van het vermogen van een kleine straalkachel.
Transient spikes accepteren of niet, de eerste ATX v3 voeding review gevonden:

https://www.tomshardware....pcie-gen-5-compatible-psu

En daar zien we het probleem al:
  • Didn't pass the 180% and 160% transient tests (ATX12V v3.0)
We couldn't run the 180% and 160% transient tests, where the transient load is applied for 1ms and 10ms, respectively, since the PSU kept on shutting down with or without the extra capacitance. This is an issue that shouldn't be happening, according to the ATX v3.0 requirements, but since this is the first PSU with PCIe 5.0 compatibility that we evaluate, we will wait to have more data to draw a solid conclusion.
Terwijl Gigabyte beweert:
  • Support PCIe Gen 5.0 graphics card
  • High-quality native 16-pin cable supports 600W output
https://www.gigabyte.com/nl/Power-Supply/GP-UD1000GM-PG5#kf

Het lijkt van niet dus.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 23 juni 2022 @ 14:27:
[...]

* in vergelijking met de rest van de Ampère line-up - en dan puur op de GPU zelf ;)

20% meer ALU's, 140% meer geheugen en slechts 10% hoger verbruik in totaal, wat grotendeels door het geheugen komt. Dat daar vervolgens nog geen 10% performance uit komt is een andere zaak, daar hebben we het ook al over gehad. Deze dingen schalen gewoon niet lekker.
Dat is nu juist mijn punt. :P
70% groter dan GA102 is leuk, maar hoe ga je ervoor zorgen dat het ding presteert als de voorganger al moeilijk deed? Want er lijkt niet noemenswaardig veel meer geheugenbrandbreedte te komen. Wel L2 cache en dat lijkt het vooralsnog te zijn. Dat is wel heel veel voor een verbetering. Dus de vraag bij mij is of ze niet echt voor extreme TDP's gaan om er nog iets uit te halen. En hoe consistent gaat dat presteren? Veel vragen weer waardoor ik ook steeds meer ga twijfelen aan 2x RTX3090. Ik moet het nog maar zien of dit gaat gebeuren en zo ja, waar Nvidia echt mee gaat komen.

[ Voor 3% gewijzigd door DaniëlWW2 op 23-06-2022 14:51 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

DaniëlWW2 schreef op donderdag 23 juni 2022 @ 13:57:
De RTX3090Ti presteert alleen maar beter door elke pretentie van efficiëntie uit het raam te gooien.
Dit is wel een beetje een samenvatting van alle high-end hardware van de laatste 2 jaar, helaas. Zowel bij CPU's als GPU's, zowel bij AMD als bij NVidia als bij Intel (al houdt AMD zich wel iets meer in, en bijvoorbeeld de 5800X3D is wat dat betreft juist een pareltje, maar de laatste GPU-refresh van RX6x50's past toch ook wel weer in dat straatje).

Vlaggenschip dat bovenaan de grafiekjes moet staan in de review? Knal d'r gewoon 150W extra doorheen ten opzichte van je mid-range-model en dan kom je er wel!

[ Voor 5% gewijzigd door bwerg op 23-06-2022 15:06 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

bwerg schreef op donderdag 23 juni 2022 @ 15:05:
[...]

Dit is wel een beetje een samenvatting van alle high-end hardware van de laatste 2 jaar, helaas. Zowel bij CPU's als GPU's, zowel bij AMD als bij NVidia als bij Intel (al houdt AMD zich wel iets meer in, en bijvoorbeeld de 5800X3D is wat dat betreft juist een pareltje, maar de laatste GPU-refresh van RX6x50's past toch ook wel weer in dat straatje).

Vlaggenschip dat bovenaan de grafiekjes moet staan in de review? Knal d'r gewoon 150W extra doorheen ten opzichte van je mid-range-model en dan kom je er wel!
Het is dan ook een gevolg van het einde van goede transistor schaling. De tijden van gratis performance gains met een nieuwe node zijn gewoon voorbij. Als je nu iets wil bereiken, dan moet je echt innovatief zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

DaniëlWW2 schreef op donderdag 23 juni 2022 @ 15:21:
[...]


Het is dan ook een gevolg van het einde van goede transistor schaling. De tijden van gratis performance gains met een nieuwe node zijn gewoon voorbij. Als je nu iets wil bereiken, dan moet je echt innovatief zijn.
De nieuwe nodes van Intel en TSMC geven prima winsten bij gelijkblijvend verbruik ten opzichte van vorige nodes, dat is echt het probleem niet. Het is gewoon een keuze. Klok alles 10-15% lager en je hebt alsnog prima winsten ten opzichte van de vorige generatie, op hetzelfde verbruik. Dan kijk ik naar de RX6600 (vergeleken met de RX6650 en alles daarboven), de Ryzen 5700X / 5800X3D (vergeleken met de Ryzen 5800X), de i5 12400 (vergeleken bij alle K-modellen). Een nieuwe generatie moet nu ineens de prestaties van de vorige generatie verdubbelen, waarom?

offtopic:
Ik heb mijn RX 6600 binnen. Ik verwacht niet dat er bij zowel AMD als NVidia binnenkort iets uitkomt wat in mijn straatje past, hoe graag ik ook RDNA3 of TSMC N5 zou willen.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
bwerg schreef op donderdag 23 juni 2022 @ 15:35:
[...]
Een nieuwe generatie moet nu ineens de prestaties van de vorige generatie verdubbelen, waarom?
Omdat AMD nu competitief is en ze beide de kroon willen pakken.

Het nieuwe productieproces lijkt ook hoge kloksnelheden mogelijk te maken, ten koste van het verbruik.

En consumenten laten steeds blijken dat ze graag een zwaar overgeklokte en inefficiënte videokaart kopen ipv een Inno3D e.d. die veel minder kost en veel efficiënter is.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 14-09 18:37
DaniëlWW2 schreef op donderdag 23 juni 2022 @ 15:21:
[...]


Het is dan ook een gevolg van het einde van goede transistor schaling. De tijden van gratis performance gains met een nieuwe node zijn gewoon voorbij. Als je nu iets wil bereiken, dan moet je echt innovatief zijn.
Welke schaling? De nodes worden zo goed als niet kleiner, vooral een andere techniek om zoveel mogelijk transistoren op/naast/boven elkaar te krijgen. Dat is precies waarom gratis performance gains er niet zijn. Nodes worden nagenoeg niet kleiner. Kleiner dan atoomniveau kan in principe niet en daar leunen we hard tegenaan.

Maar wie weet blijkt er toch weer iets anders dan een atoom te zijn, we zullen het zien ;)

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

bwerg schreef op donderdag 23 juni 2022 @ 15:35:
[...]

De nieuwe nodes van Intel en TSMC geven prima winsten bij gelijkblijvend verbruik ten opzichte van vorige nodes, dat is echt het probleem niet. Het is gewoon een keuze. Klok alles 10-15% lager en je hebt alsnog prima winsten ten opzichte van de vorige generatie, op hetzelfde verbruik. Dan kijk ik naar de RX6600 (vergeleken met de RX6650 en alles daarboven), de Ryzen 5700X / 5800X3D (vergeleken met de Ryzen 5800X), de i5 12400 (vergeleken bij alle K-modellen). Een nieuwe generatie moet nu ineens de prestaties van de vorige generatie verdubbelen, waarom?

offtopic:
Ik heb mijn RX 6600 binnen. Ik verwacht niet dat er bij zowel AMD als NVidia binnenkort iets uitkomt wat in mijn straatje past, hoe graag ik ook RDNA3 of TSMC N5 zou willen.
Daar ben ik het niet helemaal mee eens.
Uiteindelijk komt de meeste prestatiewinst voor welke vorm van IC's, van meer transistoren en niet doorbraken in ontwerp van die IC's. Dat is iets dat die ontwerpers niet graag zullen toegeven, maar het is wel zo. Wat we nu alleen zien is dat de dichtheid nog steeds oploopt, maar de frequentie waarop nieuwe nodes worden uitgebracht, loopt al jaren terug. Ook duiken er steeds meer barrières op binnen die nodes. Om er maar een paar te noemen: de weerstand binnen een IC loopt op omdat de draden zo dun aan het worden zijn. Het concept van Quantum tunneling is steeds relevanter aan het worden en er is ook een steeds groter probleem met alle delen van een IC verkleinen. Rekenclusters en cache gaan nog, I/O zaken eigenlijk al veel minder. Dat is immers de rationeel achter AMD chiplets en Intel Foveros/tiles.

Het je ook nog het probleem dat IC ontwerp veel sneller gaat dan geheugenontwerp. Daarom zie je Intel experimenteren met meer L2 cache, AMD met enorme L3 cache en 3D stacking en Nvidia lijkt nu ook met enorme L2 caches te komen. Dat is ook nodig omdat een grotere chip, exponentieel meer geheugenbrandbreedte nodig heeft. Deze oplossingen nemen alleen meer en meer transistoren in.

Er lijkt ook een zekere mate van de boel te moeten forceren aan de hand te zijn om nog prestatiedoelen te behalen. Komt bij dat AMD ook de videokaartmarkt nu wakker heeft geschut en Nvidia erop reageert. Want zonder Navi 21 denk ik dat Nvidia ook niet over de 300W was gegaan voor GA102. Nvidia heeft ook het probleem dat ze zoveel transistoren gebruiken voor zaken met beperkt gebruik voor gaming, namelijk tensor cores en eigenlijk nog steeds RT cores.

Verder lijken chips zoals AD102 en Navi 31 heel erg gericht te zijn op de niche van het halo product. Het lijken echte "90" chips te zijn en niet de veredelde "80" die we nu al een tijdje zien. Ik besef me ook dat ze voor de meeste mensen totaal niet relevant zullen zijn. Die zullen kijken naar Navi 32/33 en AD103/104/106.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29

GeForce RTX 4090 with 2520 MHz boost clock

Kopite7kimi has an update on RTX 4090 specs.

According to the leaker, NVIDIA RTX 4090 now apparently has a base and boost clocks. It is revealed that RTX 4090 has 2235 MHz base and 2520 MHz boost with 2750 MHz actual clock (such as in-game clock).

Those numbers are impressive once compared to the existing RTX 3090 SKU. The base clock alone is 60% increase (vs 1395 MHz) and boost clock is 49% higher (vs 1695 MHz). That’s indeed a noticeable upgrade over Ampere series.



Given that RTX 4090 has a rumored 16384 CUDA core spec configuration, this means that with said ‘actual’ clock speed of 2750 MHz the card’s compute performance could reach 90 TFLOPS in single-precision workload. That’s almost exactly twice as high as RTX 3090 non-Ti.

Kopite also reiterates the previously shared specs on RTX 4080 and RTX 4070 SKUs. Each SKU is to feature a different GPU, either AD103 (RTX 4080) or AD104 (RTX 4070). It looks like RTX 4080 will feature a 256-bit memory bus and 16GB of GDDR6X memory clocked at the same speed as RTX 4090. Meanwhile, RTX 4070 which supposedly has 7168 CUDA cores according to the latest rumors, would have 160-bit wide memory bus and 10GB of GDDR6 18 Gbps memory.

NVIDIA is now expected to unveil its RTX 40 series around September or October this year. Initially only these three models are to be launched with mid-range RTX 4060 coming next year around CES 2023.

https://videocardz.com/ne...t-50-higher-than-rtx-3090

Deze was hier nog niet gedeeld naar mijn weten.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

Zoals verwacht, de GTX 1630 is een grote faal. Zelfs zo groot dat de RX 6400 een goede kaart lijkt (en dat is al een grote faal).

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:28
Sp3ci3s8472 schreef op donderdag 7 juli 2022 @ 20:45:
Zoals verwacht, de GTX 1630 is een grote faal. Zelfs zo groot dat de RX 6400 een goede kaart lijkt (en dat is al een grote faal).
[YouTube: GeForce GTX 1630, An Insult To Gamers]
Moet wel zeggen dat ik die review niet helemaal begrijp, die kaart lijkt me vooral een opvolger voor de GTX 1030 en lijkt me nu niet direct een kaart gericht op gaming. Eerder op HTPC's en 2D werk in OEM PC's die geen iGPU hebben zoals de GTX 1030 ook was. Dat die kaart het dan in gaming niet goed doet is voor mij wel een beetje heel erg een 'water is nat' conclusie. Niet echt iets wat ik van HUB verwacht eigenlijk.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dennism schreef op donderdag 7 juli 2022 @ 22:23:
Eerder op HTPC's en 2D werk in OEM PC's die geen iGPU hebben zoals de GTX 1030 ook was. Dat die kaart het dan in gaming niet goed doet is voor mij wel een beetje heel erg een 'water is nat' conclusie. Niet echt iets wat ik van HUB verwacht eigenlijk.
Maar dan nog is deze kaart veel zwakker dan een 6400, die je dan ook nog eens in 1-slot en low profile modellen kunt krijgen, voor vrijwel dezelfde prijs.

Wanneer zou je de 1630 dan kopen en niet een andere kaart?

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:28
Ludewig schreef op donderdag 7 juli 2022 @ 22:34:
[...]


Maar dan nog is deze kaart veel zwakker dan een 6400, die je dan ook nog eens in 1-slot en low profile modellen kunt krijgen, voor vrijwel dezelfde prijs.

Wanneer zou je de 1630 dan kopen en niet een andere kaart?
Maar is dat wel zo? Als Ik in de markt zou zijn voor zo'n kaart zou dat hoogstwaarschijnlijk zijn voor bijv. De en (mogelijk) Encoding mogelijkheden, ik hoef niet te weten of deze kaart beter is in gaming, daar koop je immers een kaart als deze niet voor, ik in ieder geval niet, en heb eerlijk gezegt ook nog nooit echt iemand een kaart in deze klasse zien kopen voor gamin (ook geen 1030's of hun voorgangers trouwens), dat is toch eigenlijk altijd minimaal x50 klasse en meestal minimaal x60 klasse of hoger.

Wat ik wel wil weten is of die RX6400 net zo capabel is voor gebruik met o.a. video of dat deze kaart daar beter in is. AMD kaarten willen helaas immers nog wel eens gemankeerd zijn in hun de en encoding mogelijkheden. Als de RX6400 daarin echter gelijk is zal dat ongetwijfeld de betere kaart zijn. Daarom dat ik deze review ook wat gemankeerd vind, juist zaken waar je dit soort kaarten normaliter niet voor koopt worden getest, terwijl zaken waar je mogelijk zo'n kaart wel voor koopt (HTPC mogelijkheden, licht zakelijk gebruik) niet getest worden.

Daar zowel de 1630 als de RX6400 75W of lager kaarten zijn verwacht ik van beide wel low profile modellen. Ik verwacht niet dat dit enkel een feature voorbehouden aan de RX6400 kaarten gaat zijn.

[ Voor 21% gewijzigd door Dennism op 07-07-2022 22:51 ]


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

Dennism schreef op donderdag 7 juli 2022 @ 22:23:
[...]


Moet wel zeggen dat ik die review niet helemaal begrijp, die kaart lijkt me vooral een opvolger voor de GTX 1030 en lijkt me nu niet direct een kaart gericht op gaming. Eerder op HTPC's en 2D werk in OEM PC's die geen iGPU hebben zoals de GTX 1030 ook was. Dat die kaart het dan in gaming niet goed doet is voor mij wel een beetje heel erg een 'water is nat' conclusie. Niet echt iets wat ik van HUB verwacht eigenlijk.
Het gaat er niet om dat de kaart slecht is. Het is gewoon een videokaart; alleen voor een prijs van 150-200 euro is het gewoon een hele slechte kaart. Dus het is niet een water is nat conclussie vind ik.

Hadden ze er 70-80 euro voor gevraagd dan had ik hem ook niet gepost.

Die 1030 kost ook te veel voor wat hij doet vind ik, maar is al beter qua prijs.

Laat ik het zo stellen, met een prijs van 150-200 euro valt hij in de klasse gaming kaart en niet in de klasse multimedia kaart.

[ Voor 6% gewijzigd door Sp3ci3s8472 op 07-07-2022 23:15 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:28
Sp3ci3s8472 schreef op donderdag 7 juli 2022 @ 23:14:
[...]


Het gaat er niet om dat de kaart slecht is. Het is gewoon een videokaart; alleen voor een prijs van 150-200 euro is het gewoon een hele slechte kaart. Dus het is niet een water is nat conclussie vind ik.
Dat is natuurlijk deel van de water is nat conclusie, er zijn immers momenteel geen goed geprijsde kaarten in het lagere segment, dat deze kaart dat ook niet is, ligt dus ook voor de hand. Om dat te concluderen heb je imho geen review nodig van 12? games. Ik zag bijv. in de 2021 gekte volgens mij ook 1030's voor €200+ gaan, dat deze kaart nu ook voor €150+ gaat laat imho voornamelijk zien dat in ieder geval de retail prijzen nog altijd overspannen zijn en is imho niet direct indicatief om te bepalen of dit een gaming kaart is of niet. Qua specs / feature set zeg ik in ieder geval nog altijd van niet.

Ik zou ook niet direct zeggen dat een kaart enkel een multimedia kaart kan zijn wanneer deze minder dan €100 kost bijvoorbeeld. Een heel goede encoder kaart zou voor zakelijk gebruik bijvoorbeeld best flink duurder mogen zijn en nog steeds niet in het gaming segment hoeven te vallen (echter zal deze kaart dat w.s. niet zijn). Zeker met de vreemde prijspunten van de laatste jaren plaats ik kaarten niet snel enkel op prijs in een segment, daar de werkelijke prijs, het segment waar de kaart in valt qua mogelijkheden en performance, en de prijs die je zou verwachten voor een kaart in dat segment nog wel eens aardig verschillen momenteel.

Ik wil ook niet zeggen dat dit een goede kaart is (ik verwacht immers helemaal niet dat dit een goede kaart is voor de prijs die deze nu heeft, dit zou inderdaad een sub €100, en mogelijk nog lager, kaart moeten zijn), ik vind enkel de review matig en niet getuigen van de kwaliteit die ik normaal verwacht van HUB.

[ Voor 24% gewijzigd door Dennism op 07-07-2022 23:35 ]


Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

Dennism schreef op donderdag 7 juli 2022 @ 23:23:
[...]


Dat is natuurlijk deel van de water is nat conclusie, er zijn immers momenteel geen goed geprijsde kaarten in het lagere segment, dat deze kaart dat ook niet is, ligt dus ook voor de hand. Om dat te concluderen heb je imho geen review nodig van 12? games. Ik zag bijv. in de 2021 gekte volgens mij ook 1030's voor €200+ gaan, dat deze kaart nu ook voor €150+ gaat laat imho voornamelijk zien dat in ieder geval de retail prijzen nog altijd overspannen zijn en is imho niet direct indicatief om te bepalen of dit een gaming kaart is of niet. Qua specs / feature set zeg ik in ieder geval nog altijd van niet.

Ik zou ook niet direct zeggen dat een kaart enkel een multimedia kaart kan zijn wanneer deze minder dan €100 kost bijvoorbeeld. Een heel goede encoder kaart zou voor zakelijk gebruik bijvoorbeeld best flink duurder mogen zijn en nog steeds niet in het gaming segment hoeven te vallen (echter zal deze kaart dat w.s. niet zijn). Zeker met de vreemde prijspunten van de laatste jaren plaats ik kaarten niet snel enkel op prijs in een segment, daar de werkelijke prijs, het segment waar de kaart in valt qua mogelijkheden en performance, en de prijs die je zou verwachten voor een kaart in dat segment nog wel eens aardig verschillen momenteel.

Ik wil ook niet zeggen dat dit een goede kaart is (ik verwacht immers helemaal niet dat dit een goede kaart is voor de prijs die deze nu heeft, dit zou inderdaad een sub €100, en mogelijk nog lager, kaart moeten zijn), ik vind enkel de review matig en niet getuigen van de kwaliteit die ik normaal verwacht van HUB.
Ook in het hogere segment vind ik de prijzen tamelijk absurd vergeleken bij 'vroeger', dat is nou eenmaal de markt. Voor minder dan 100 euro koop je (nieuw) nagenoeg niks - ik zie nog GT710's voor iets onder de 100 euro te koop staan, maar dat presteert al slechter dan veel geïntegreerde GPU's.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

Dennism schreef op donderdag 7 juli 2022 @ 23:23:
[...]

Dat is natuurlijk deel van de water is nat conclusie, er zijn immers momenteel geen goed geprijsde kaarten in het lagere segment, dat deze kaart dat ook niet is, ligt dus ook voor de hand. Om dat te concluderen heb je imho geen review nodig van 12? games. Ik zag bijv. in de 2021 gekte volgens mij ook 1030's voor €200+ gaan, dat deze kaart nu ook voor €150+ gaat laat imho voornamelijk zien dat in ieder geval de retail prijzen nog altijd overspannen zijn en is imho niet direct indicatief om te bepalen of dit een gaming kaart is of niet. Qua specs / feature set zeg ik in ieder geval nog altijd van niet.
Een aantal jaar geleden zou ik in dat prijs segment kijken voor een kaart voor mijn HTPC/Game PC (gebruik ik voor couch games en console emulatie van mijn oude spellen). Daar heb ik destijds een RX 470 ingestopt die ik voor 125 euro heb gekocht tweedehands (exacte nieuwprijs weet ik niet maar was niet hoger dan 200 euro). Nu moet ik 350-450 euro betalen voor een echte upgrade van die kaart.

Er van uitgaande dat iemand de video kijkt die niet de markt op de voet volgt als ik en een kaart wil voor zijn Game/HTPC. Kan ik mij voorstellen dat hij kijkt naar de GTX 1630 en ook denkt, die 6 is best hoog dus zal wel een rappe kaart zijn. Die persoon heeft best wat aan deze review.

In alle eerlijkheid voor de prijs die de kaart krijgt ben je beter af met een moederbord + Intel cpu met een IGP die op media gebied evenveel kan.

Ik snap het argument wat je maakt, maar ik ben het er niet helemaal mee eens. De review had beter gekunt door ook meer de focus te leggen op de multimedia capaciteiten van de kaart. Alleen denk ik dat Steve in dit geval dezelfde gedachtegang als ik heeft gevolgd (en duidelijk niet happy is met deze kaart :P).

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Toch wel knap van Nvidia om met de GTX 1630 een slechter product neer te zetten dan de Radeon 6500 XT of de Radeon 6400. Het zijn kliekjes van GTX 1650 chips van 3 jaar geleden als nieuw verkopen. Vooral de gesuggereerde MSRP prijs van $200 is een belediging.

YouTube: GeForce GTX 1630, An Insult To Gamers

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • jopie
  • Registratie: Juli 1999
  • Nu online
Eens, ze zouden het zoveel duidelijker maken door naast de wel game geschikte GTX/RTX series ook een duidelijke non-gaming voor voornamelijk 2D gebruik uit te brengen. Maar breng een geloofwaardige scheidslijn aan tussen wat wel gekocht zou moeten worden voor gaming en wat niet, en dan ligt de grens voor nu op 1080P gaming op medium kwaliteit denk ik. Daaronder is dan "2D accelerated" of MMX voor MultiMediaaXellerated. Al geloof ik dat we de MMX afkorting ergens in de PC wereld al hebben.

Acties:
  • 0 Henk 'm!

  • Finalchaos
  • Registratie: Februari 2020
  • Laatst online: 19-07-2023
*knip* rants zijn overal off topic, zeker als het onderwerp ook nog eens off topic is

[ Voor 85% gewijzigd door br00ky op 10-07-2022 12:59 ]


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 14-09 07:40

SG

SG surft naar info hardewaren

DaniëlWW2 schreef op donderdag 23 juni 2022 @ 15:21:
[...]


Het is dan ook een gevolg van het einde van goede transistor schaling. De tijden van gratis performance gains met een nieuwe node zijn gewoon voorbij. Als je nu iets wil bereiken, dan moet je echt innovatief zijn.
Er is helemaal geen einde elke node bracht meer performance mm2 diespace hogere klok ceiling
Bij gelijke performance zuiniger.
Maar bij gelijke mm2 met hoogste klok ook meer vermogen.
Dus we zijn van 1watt naar 2watt naar 4watt naar….50watt…150…. 320 naar 350 en 900watt zal ook gen halen misschien lovelace opvolger of kingpin custom extreem oc gedrocht.
Je krijgt altijd meer performance met elke dieshrink waarbij de performance flink stuk beter wordt dan vermogen toename.
Het is dus heel gewoon natuurkundig fenomeen. Dat je per cm2 die met tegen de klok ceiling klok met elke dieshrink je veel meer gaat verbruiken.
Vroeger in beidge desktop tijdperk van 8088 tot 80386 had je genoeg aan 250watt voedingje.
Riva128 of 3dfx banchee trokken toen niet zo heel veel.

Het is dat nV de kroon moet hebben dus voor bigchips met ontiegelijke maximaal klok voor de kroon.
En dan krijg je dus dat elke gen met dieshrink meer gaat verbruiken.

Voedingen is 12volt belangrijk de fasen zijn verantwoordelijk voor energie spikes op te vangen.
Hoe zwaar die zijn en aantal is belangrijk en of en hoeveel de rimpel verdelen.
Dicht bij chip is de laatste stap van dc/dc conversie ook fasen en is afhankelijk van hoe zwaar en aantal ervan toegepast zijn.

Vroeger had je ook 250 voedingen die near 230 avarage load met gemak aankunnen en 400watt die dat niet kunnen. Niks nieuws. Van A merk voeding bereken je bijvoorbeeld 450 g-kaar 300 cpu 200 rest. En dan ga je voor 1500watter. En nog beter ene die in g-kaart compability lijsten wordt aangeraden.
Je weet dan dat elke lage watter aangeraden voeding dan beter die spikes aankan.

Gezien je altijd bij dieshrink per bermogen betere prestaties krijgt kan je vermogen budget kiezen en ga je voor wat voor sku daar binnen valt.
300watt zal dus een 4070 zijn en daar kan je 320watt 3080 mee vergelijken.
Ben je meer de 250watt limiet dan zou je kunnen gaan voor 4060 al zal je dan wat langer moeten wachten. Misschien dat RDNA3 de navi33 variant er eerder is.

De GTX285 GTX480 GTX580 zaten ook in die tdp klasse. Met 4060 of navi33 same vermogen maar toch meer performance.
Wil je meer dan ben ook meer zoals Hummer volk of Mercedes 5.0 v12 die a naar b in ultime luxe moeten. Maar kan ook status pats dingetje zijn.

Ik heb nu Vega56 en ik ben niet extreem groen maar ook niet gek dus navi32

Daarnaast ze kunnen de productie process nog kwa materiaal of nieuwere technieken de grens nog wat verder pushen. Of helemaal omgaan op licht of quantum computer. Maar dat zal niet op korte termijn zijn.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • stin00
  • Registratie: Mei 2013
  • Niet online
Gaat hier wel om de Hopper lijn, dus de datacenter microarchitectuur. Hopelijk passen ze dit ook toe in de Lovelace (consumenten) GPUs. Maarja met alle overschotten gaan ze eerst de huidige voorraden opmaken voordat we de 40XX series zien. De 2 jaar oude 30XX series mag wel eens in prijs zakken, oude meuk inmiddels 8)

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

Mocht iemand het nog gemist hebben.

https://videocardz.com/ne...ark-time-spy-extreme-test

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het was moeilijk te missen als je vandaag naar een van de meer GPU georiënteerde sites bent gegaan. :P

Maar ik heb het opzettelijk niet geplaatst hier omdat ik eens wou kijken wat er gebeurde qua speculaties. En dat is toch wel grappig want we hebben nu een combinatie van:
-AD102 zou circa 70% groter dan GA102 zijn.
-De afgelopen maanden gaan de clock speeds elke paar weken omhoog en nu zitten we nu al op "makkelijk 3GHz".
-AD102 zou 2x of beter presteren dan GA102.

En nu kijken we naar iets meer dan 60% sneller wat zeer realistisch kan blijken te zijn omdat lineaire schaling altijd lastig is. En dat is dan een synthetische benchmark die beter zal presteren dan de meeste games. De grap is dat als dit het ongeveer is, tja dan kijk je naar de realisatie dat als de clock speeds echt fors omhoog gaan en dit het is, die chip voor geen ene meter schaalt. In een dergelijk scenario maakt het ook niet uit of dit ding niet de volle chip is, maar een forse cut down. Als de chip nog slechter schaalt dan GA102, dan heeft het extra formaat weinig zin. En dit is dan een synthetische benchmark, geen game. Dit zou eerder een optimistisch scenario zijn.

Voor mij is dit ook een beetje waarom ik 2x GA102 eigenlijk al een hele tijd als maximum zie. Dat is al erg veel gevraagd, maar kan misschien nog net met een 70% grotere chip met een aantal verbeteringen erin. Maar je hebt denk ik echt 2x de rekeneenheden nodig alsmede een uitstekende aansturing van die rekeneenheden, om werkelijk 2x sneller te zijn. En dat is veel, heel veel gevraagd zonder radicale aanpassingen en verbeteringen in architectuur.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Tja @kopite7kimi spreekt over 3 GHz, dat zal vast verklaren waar die flinke performance bump vandaan komt.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op dinsdag 19 juli 2022 @ 09:00:
Tja @kopite7kimi spreekt over 3 GHz, dat zal vast verklaren waar die flinke performance bump vandaan komt.
Het hele punt is juist dat dit absoluut niet overeenkomt met een 70% grotere chip + ruim 30% clock speed.
Dit lijkt veel meer op wat je zou verwachten als Ada Lovelace een "Ampere next" is waarbij ze wat kleine aanpassingen in de architectuur hebben gemaakt om er nog bijna 70% eruit te halen met 70% meer hardware. Als er ook nog eens 30% extra clock speed is, dan impliceert dit dat die chip een behoorlijk probleem met occupency heeft. En dit is dan een synthetische benchmark.

Als het niet de volle chip is, maar bijvoorbeeld de 16384 ALU configuratie, dan heb je iets meer dan 50% hardware en dan zou wat extra clock speed kunnen. Maar dan alsnog kijk je hier waarschijnlijk naar een bovengemiddeld resultaat.

Laat ik ook maar duidelijk zijn: Dit is niet slecht, absoluut niet. Maar dit is wel iets realistischer gezien waar Nvidia waarschijnlijk mee werkt. Want er is maar geen indicatie dat er echt fundamenteel iets gaat veranderen en simpelweg clock speeds omhoog gooien is geen magische oplossing.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
DaniëlWW2 schreef op dinsdag 19 juli 2022 @ 09:37:
[...]


Het hele punt is juist dat dit absoluut niet overeenkomt met een 70% grotere chip + ruim 30% clock speed.
Dit lijkt veel meer op wat je zou verwachten als Ada Lovelace een "Ampere next" is waarbij ze wat kleine aanpassingen in de architectuur hebben gemaakt om er nog bijna 70% eruit te halen met 70% meer hardware. Als er ook nog eens 30% extra clock speed is, dan impliceert dit dat die chip een behoorlijk probleem met occupency heeft. En dit is dan een synthetische benchmark.

Als het niet de volle chip is, maar bijvoorbeeld de 16384 ALU configuratie, dan heb je iets meer dan 50% hardware en dan zou wat extra clock speed kunnen. Maar dan alsnog kijk je hier waarschijnlijk naar een bovengemiddeld resultaat.

Laat ik ook maar duidelijk zijn: Dit is niet slecht, absoluut niet. Maar dit is wel iets realistischer gezien waar Nvidia waarschijnlijk mee werkt. Want er is maar geen indicatie dat er echt fundamenteel iets gaat veranderen en simpelweg clock speeds omhoog gooien is geen magische oplossing.
We weten helaas niet of deze benchmark de RTX 4090 was of de RTX4090 Ti. Schaalbaarheid als negatief beoordelen is dan voorbarig.

Occupancy en latency in Ampere zijn slechter dan in RDNA2, maar wil niet zeggen dat Lovelace hetzelfde lot zal treffen. Ook al zal Lovelace lijken op Ampere, vergeet de extra L2 cache niet.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op donderdag 21 juli 2022 @ 18:50:
[...]


We weten helaas niet of deze benchmark de RTX 4090 was of de RTX4090 Ti. Schaalbaarheid als negatief beoordelen is dan voorbarig.

Occupancy en latency in Ampere zijn slechter dan in RDNA2, maar wil niet zeggen dat Lovelace hetzelfde lot zal treffen. Ook al zal Lovelace lijken op Ampere, vergeet de extra L2 cache niet.
Je mist de hele essentie.
Als dit de "RTX4090" is met "450WTDP" en "16384 ALU's", dan alsnog is een dergelijke score haalbaar zonder een frequentiesprong van honderden megahertz over GA102. Dit is een score die je zou verwachten van een circa 50% grotere chip die in het lage 2GHz bereik zit. Als deze chip dus zelfs maar richting de 3GHz gaat, dan is dat helemaal niet zo geweldig. En dat wordt ook gesuggereerd. 3GHz zou makkelijk zijn, dus deze is iets langzamer. Het punt is dat op deze manier, alles boven de 2,2GHz eigenlijk al een achteruitgang is op de RTX3090Ti qua occupency.



En dan is er inmiddels ook de 2x+ in Control. Dit zou dan de "RTX4090Ti" zijn met een "800WTDP" en waarschijnlijk de volle "18432ALU's". Tja dat is ruim tweemaal zo snel voor bijna tweemaal zoveel verbruik als een RTX3090Ti. Dat is gewoon slecht.



Het hele punt is en blijft dat AD102 over 70% extra hardware lijkt te beschikken. Voor die eerste score zou je naar 65% sneller kijken voor circa 50% extra hardware over GA102. Die tweede is ruim 100% sneller voor 350W extra. Dat is gewoon slecht, heel erg slecht. Je haalt dan immers nauwelijks verbetering uit je architectuur. Je hebt dan gewoon het verbruik tot het volstrekt bezopen opgevoerd om maar sneller te presteren.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
DaniëlWW2 schreef op donderdag 21 juli 2022 @ 19:53:
[...]


Je mist de hele essentie.
Als dit de "RTX4090" is met "450WTDP" en "16384 ALU's", dan alsnog is een dergelijke score haalbaar zonder een frequentiesprong van honderden megahertz over GA102. Dit is een score die je zou verwachten van een circa 50% grotere chip die in het lage 2GHz bereik zit. Als deze chip dus zelfs maar richting de 3GHz gaat, dan is dat helemaal niet zo geweldig. En dat wordt ook gesuggereerd. 3GHz zou makkelijk zijn, dus deze is iets langzamer. Het punt is dat op deze manier, alles boven de 2,2GHz eigenlijk al een achteruitgang is op de RTX3090Ti qua occupency.

[Twitter]

En dan is er inmiddels ook de 2x+ in Control. Dit zou dan de "RTX4090Ti" zijn met een "800WTDP" en waarschijnlijk de volle "18432ALU's". Tja dat is ruim tweemaal zo snel voor bijna tweemaal zoveel verbruik als een RTX3090Ti. Dat is gewoon slecht.

[Twitter]

Het hele punt is en blijft dat AD102 over 70% extra hardware lijkt te beschikken. Voor die eerste score zou je naar 65% sneller kijken voor circa 50% extra hardware over GA102. Die tweede is ruim 100% sneller voor 350W extra. Dat is gewoon slecht, heel erg slecht. Je haalt dan immers nauwelijks verbetering uit je architectuur. Je hebt dan gewoon het verbruik tot het volstrekt bezopen opgevoerd om maar sneller te presteren.
Als, als, als. Als je die 3 GHz gelooft van kopite7kimi, een Formule 1 fan. Geobsedeerd door snelheid. Waarschijnlijk uitsluitend in een overklok ultra high power draw scenario.

De 2500 MHz vond ik realistischer. Die sluit ook beter aan bij de sprong die je mag verwachten van Samsung N8 naar TSMC N4 (eigenlijk 5nm maar toch).

Dan heb je het over 71% meer SM, 34% meer kloksnelheid, ofwel 230% de performance van een 3090, en de Control benchmark is 160 t.o.v. 72 is 222% beter.
"high power draw" kan daarbij nog steeds van alles betekenen.

Of zo je wilt 52% meer SM, 2300 MHz (de 3080 heeft 92% van de boost clock van een 3090 Ti, neem hetzelfde aan voor de 4090 en de 4090 Ti) is 24% meer kloksnelheid, ofwel 188% de score van een 3090, en de TimeSpy benchmark is 19000 t.o.v. 10440 is 182% beter.
Power draw in dit geval wederom geen idee.

Dan klinkt het opeens een stuk beter schaalbaar. Voor iemand die normaal gesproken voorzichtig is, doe je nu wel erg zelfverzekerd over die 3 GHz.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
sunsmountain schreef op donderdag 21 juli 2022 @ 23:13:
[...]

Als, als, als. Als je die 3 GHz gelooft van kopite7kimi, een Formule 1 fan. Geobsedeerd door snelheid. Waarschijnlijk uitsluitend in een overklok ultra high power draw scenario.
Goed punt, dat kan. Maar dan is die TimeSpy score van 19.000 punten gebaseerd op die overklok. Voor die 2,5 Ghz die je aanhaalt zal je dan een lagere score moeten hanteren. En dan is je performance berekening ook anders.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
XWB schreef op donderdag 21 juli 2022 @ 23:20:
[...]


Goed punt, dat kan. Maar dan is die TimeSpy score van 19.000 punten gebaseerd op die overklok. Voor die 2,5 Ghz die je aanhaalt zal je dan een lagere score moeten hanteren. En dan is je performance berekening ook anders.
Die 19.000 is van een 4090, waarvan we de kloksnelheid niet weten.
https://videocardz.com/ne...ark-time-spy-extreme-test

We kunnen eigenlijk geen performance berekening maken met deze leaks.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Die score komt toch van dezelfde leaker? Dezelfde leaker die vervolgens claimt dat er 3 Ghz uitgeperst kan worden.

March of the Eagles


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
XWB schreef op vrijdag 22 juli 2022 @ 09:54:
Die score komt toch van dezelfde leaker? Dezelfde leaker die vervolgens claimt dat er 3 Ghz uitgeperst kan worden.
Ja, maar dat is niet per se tijdens dezelfde benchmark gehaald. Overclock pogingen kunnen los staan van benchmarks. We weten van de 2 huidige benchmarks niet: klokfrequentie, verbruik in W, hoeveel SM's precies er nu op de 4090 gaan zitten (aanname 4090 Ti = 144 lijkt redelijk).

edit: en drivers kunnen nog een groot verschil maken, met name bij de TimeSpy benchmark.

[ Voor 8% gewijzigd door sunsmountain op 22-07-2022 10:04 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:28
XWB schreef op vrijdag 22 juli 2022 @ 09:54:
Die score komt toch van dezelfde leaker? Dezelfde leaker die vervolgens claimt dat er 3 Ghz uitgeperst kan worden.
Daar kan natuurlijk een relatie tussen zitten, maar dat hoeft natuurlijk niet.

Ik kan ook zeggen dat een kaart 162 FPS haalt in game A, of 19000 punt in benchmark B en dat diezelfde kaart 3Ghz aan kan tikken, hoeft natuurlijk niet te betekenen dat die kaart 3Ghz aantikt tijdens het behalen van 162 FPS in game A of tijdens het draaien van benchmark B.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Waarom doen jullie zo moeilijk over kopite's claims en welke kloksnelheid het één en ander volgens hem wel of niet zou hebben?

https://twitter.com/kopite7kimi/status/1543844605531418625

Die 19000 zou dus uit een 90+ NTFLOPS (max clocks) of 81+ NTFLOPS (boost) AD102 komen volgens hem. Dat is hoe dan ook méér dan het dubbele van een 3090. De claim is vervolgens ook "> 19000" dus laten we dat extreem doen en 19999 nemen, zet dat af tegen de 10440 voor een 3090 van Videocardz en je komt uit op ~91,5% meer performance. Het rekenwerk is zo lastig niet en kopite staat nog steeds achter die "feiten" hierboven :p

Disclaimer: ik heb geen flauw benul of die 10440 voor een 3090 überhaupt klopt, ik heb 0,0 interesse in 3DMark resultaten. Ik heb ook geen zin om op te zoeken welke kloksnelheden Ampère haalt in TSE. Nvidia's claim van 35,6 NTFLOPS voor de 3090 is echter gebaseerd op de boost clock en de game clock ligt hoger dan dat, dus het zal eerder zo'n 40-41 NTFLOPS zijn. Maar of ze dat dan ook halen in TSE weet ik niet, dus dat mogen jullie zelf op gaan zoeken :P

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Werelds He, ik doe soms graag moeilijk ja. }:| :P
Maar dat is wel op een simpelere manier het punt maken. Ik reken alleen liever vanuit de RTX3090Ti omdat die de volle GA102 chip heeft met ook een 450W TDP.

Een 16384 ALU chip met 2200MHz zit op 72TFLOP. RTX3090Ti zit op 40TFLOP waardoor je dus 80% meer TFLOPS zou krijgen. Daar haal je dan circa 65% sneller uit dan een RTX3090Ti. Is het alleen 2500MHz, dan ziet dat er met 82TFLOPS niet zo best uit nee.

[ Voor 3% gewijzigd door DaniëlWW2 op 22-07-2022 14:12 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
DaniëlWW2 schreef op donderdag 21 juli 2022 @ 19:53:
[...]


Je mist de hele essentie.
Als dit de "RTX4090" is met "450WTDP" en "16384 ALU's", dan alsnog is een dergelijke score haalbaar zonder een frequentiesprong van honderden megahertz over GA102. Dit is een score die je zou verwachten van een circa 50% grotere chip die in het lage 2GHz bereik zit. Als deze chip dus zelfs maar richting de 3GHz gaat, dan is dat helemaal niet zo geweldig. En dat wordt ook gesuggereerd. 3GHz zou makkelijk zijn, dus deze is iets langzamer. Het punt is dat op deze manier, alles boven de 2,2GHz eigenlijk al een achteruitgang is op de RTX3090Ti qua occupency.

[Twitter]

En dan is er inmiddels ook de 2x+ in Control. Dit zou dan de "RTX4090Ti" zijn met een "800WTDP" en waarschijnlijk de volle "18432ALU's". Tja dat is ruim tweemaal zo snel voor bijna tweemaal zoveel verbruik als een RTX3090Ti. Dat is gewoon slecht.

[Twitter]

Het hele punt is en blijft dat AD102 over 70% extra hardware lijkt te beschikken. Voor die eerste score zou je naar 65% sneller kijken voor circa 50% extra hardware over GA102. Die tweede is ruim 100% sneller voor 350W extra. Dat is gewoon slecht, heel erg slecht. Je haalt dan immers nauwelijks verbetering uit je architectuur. Je hebt dan gewoon het verbruik tot het volstrekt bezopen opgevoerd om maar sneller te presteren.
Zoals ik al vermoedde met 2300 / 2500 MHz, kopite7kimi heeft je teleurstelling alweer genuanceerd:

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Misschien dat Nvidia nog met een RTX 30x0 Super refresh komt:

https://www.techpowerup.c...th-amd-and-nvidia-appears

March of the Eagles


Acties:
  • +4 Henk 'm!

  • Hell-Slave
  • Registratie: Juni 2011
  • Laatst online: 14-09 20:08
nieuws: Gerucht: Nvidia GeForce RTX 40-flagship krijgt 18.176 CUDA-cores en 8...

Om die 800W te koelen misschien wordt hij wel echt zo groot. ;)

Afbeeldingslocatie: https://tweakers.net/i/OY7SKkGVXAVMVPSO6LwSbYIlI1o=/800x/filters:strip_icc():strip_exif()/f/image/aup4XyNw1Lp91MXMa9nJCv8F.jpg?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 18:55
pooaahh en met de huidige energie prijzen wordt gamen echt een financiële aanslag nog buiten de initiële aanschaf om.

Wie goed doet, die goed ontmoet.


Acties:
  • +2 Henk 'm!

  • Hell-Slave
  • Registratie: Juni 2011
  • Laatst online: 14-09 20:08
AtlAntA schreef op dinsdag 26 juli 2022 @ 18:37:
[...]


pooaahh en met de huidige energie prijzen wordt gamen echt een financiële aanslag nog buiten de initiële aanschaf om.
Ja dat wordt zo meteen €12,55 voor een uurtje COD. 8)7
Gelukkig werkt m'n GTX1080Ti nog prima. ;)

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
XWB schreef op dinsdag 26 juli 2022 @ 17:59:
Misschien dat Nvidia nog met een RTX 30x0 Super refresh komt:
Ik kan mij wel voorstellen dat er nog een 3060 super komt. Zo kun je nog steeds een 1660 en 2060 Super kopen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik betwijfel echt of Nvidia zover zou willen gaan.

Want hiermee beginnen doet twee dingen:
1) Dit lanceren gaat meteen het idee van "Fermi" terugroepen. Marketingtechnisch zo beginnen is vrij rampzalig omdat je weet dat de betere reviewers over due 800W gaan vallen en het product zullen afbranden.
2) Het komt over als pure wanhoop omdat AMD, Nvidia dreigt te verslaan. Is Navi 31 alsnog sneller is, dan is het product ook nog eens vernederend. Is Navi 31 niet sneller, dan zal AMD haar uiterste best doen om het gat in verbruik zo groot mogelijk maken om wederom dit er dom eruit te laten zien.

Ik denk eigenlijk dat Nvidia niet verder dan 500W kan gaan. Dat is al bezopen genoeg.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

Hell-Slave schreef op dinsdag 26 juli 2022 @ 18:47:
[...]

Ja dat wordt zo meteen €12,55 voor een uurtje COD. 8)7
Gelukkig werkt m'n GTX1080Ti nog prima. ;)
Het is de(!) manier om Geforce Now te verkopen :+.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op dinsdag 26 juli 2022 @ 19:36:
Ik betwijfel echt of Nvidia zover zou willen gaan.

Want hiermee beginnen doet twee dingen:
1) Dit lanceren gaat meteen het idee van "Fermi" terugroepen. Marketingtechnisch zo beginnen is vrij rampzalig omdat je weet dat de betere reviewers over due 800W gaan vallen en het product zullen afbranden.
2) Het komt over als pure wanhoop omdat AMD, Nvidia dreigt te verslaan. Is Navi 31 alsnog sneller is, dan is het product ook nog eens vernederend. Is Navi 31 niet sneller, dan zal AMD haar uiterste best doen om het gat in verbruik zo groot mogelijk maken om wederom dit er dom eruit te laten zien.

Ik denk eigenlijk dat Nvidia niet verder dan 500W kan gaan. Dat is al bezopen genoeg.
Het is sowieso een beetje een vreemd bericht. Er wordt gesproken over 'vlaggenschip', maar zo'n RTX 4090 Ti - als die er komt - hoeven we niet bij de introductie van de nieuwe serie te verwachten. De 'Ti refresh' volgt doorgaans pas na 9 maanden ofzo na de initiële launch van een nieuwe serie. De RTX 4090 wordt gewoon het nieuwe vlaggenschip, tot wanneer er een opvolger komt.

Ik denk dus dat we in eerste instantie een 450W RTX 4090 versus 450W Navi 31 krijgen.

March of the Eagles


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:28
DaniëlWW2 schreef op dinsdag 26 juli 2022 @ 19:36:
Ik betwijfel echt of Nvidia zover zou willen gaan.

Want hiermee beginnen doet twee dingen:
1) Dit lanceren gaat meteen het idee van "Fermi" terugroepen. Marketingtechnisch zo beginnen is vrij rampzalig omdat je weet dat de betere reviewers over due 800W gaan vallen en het product zullen afbranden.
2) Het komt over als pure wanhoop omdat AMD, Nvidia dreigt te verslaan. Is Navi 31 alsnog sneller is, dan is het product ook nog eens vernederend. Is Navi 31 niet sneller, dan zal AMD haar uiterste best doen om het gat in verbruik zo groot mogelijk maken om wederom dit er dom eruit te laten zien.

Ik denk eigenlijk dat Nvidia niet verder dan 500W kan gaan. Dat is al bezopen genoeg.
Ik verwacht eigenlijk als dit klopt, dat dit geen gaming georiënteerde kaart is, met 48GB geheugen lijkt dit mij bij uitstek een zakelijke workstation of prosumer / zzp kaart (afhankelijk van de Sku) en dan zijn zulke wattages nog net wat beter te verdedigen, mits het ook de performance sprong brengt die je bij dat soort wattages verwacht en het efficiënter is dan de vorige generatie. Zo'n kaart testen voor gaming is natuurlijk vrij idioot, al zullen reviewers het inderdaad vast doen.

Voor gaming is dit natuurlijk zoals gezegd idioot, maar die 450W Sku's gaan voor gaming ook al naar het idiote toe, ook al zullen ook die Sku's waarschijnlijk weer (flink) efficiënter zijn dan de vorige generatie. Ik zie eigenlijk die wattages grotendeels alleen voor zakelijk gebruik nog te verantwoorden.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
XWB schreef op dinsdag 26 juli 2022 @ 23:44:
[...]


Het is sowieso een beetje een vreemd bericht. Er wordt gesproken over 'vlaggenschip', maar zo'n RTX 4090 Ti - als die er komt - hoeven we niet bij de introductie van de nieuwe serie te verwachten. De 'Ti refresh' volgt doorgaans pas na 9 maanden ofzo na de initiële launch van een nieuwe serie. De RTX 4090 wordt gewoon het nieuwe vlaggenschip, tot wanneer er een opvolger komt.

Ik denk dus dat we in eerste instantie een 450W RTX 4090 versus 450W Navi 31 krijgen.
Ik denk dat AMD Navi31 op 400W of zelfs 375W zal proberen te houden. Of dat mogelijk is met zoveel CU's weet ik niet, maar 450W zou mij verbazen. Misschien schakelen ze wat CU's uit, misschien zijn de 3x64 CU eigenlijk 3x80 CU met 16 CU uitgeschakeld. We hebben nog steeds geen enkele bevestiging van Navi31 behalve high level.

Als Nvidia niet beter dan de gewone RTX 4090 met ~128 SM lanceert, dus niet de volle 144 SM, dan ziet het er somber voor ze uit deze keer. Of ze moeten een of ander konijn uit een hoed toveren, wat ze, Jensen Huang kennende, zeker zullen proberen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

Ik moet eerlijk zeggen dat het opgenomen vermogen voor mij toch wel doorslaggevend werkt. Mijn 2080 gebruikt nu een 145watt tijdens een game en eigenlijk alles boven de 2080 vind ik bezopen.
Gaat me niet om de kosten maar de extra warmte dit wordt gegenereerd. In de zomermaanden is het al feest en ben ik blij dat mijn cpu en gpu gezamelijk maar een 190watt verbruiken.

De 3070 heeft ook een "tdp" van 220 watt net als de 2080 en is een significante upgrade ten opzichte van mijn 2080. Als die ook met een undervolt rond de 150watt zit denk ik toch maar dat ik daar voor ga voorlopig.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Hell-Slave
  • Registratie: Juni 2011
  • Laatst online: 14-09 20:08
Sp3ci3s8472 schreef op dinsdag 26 juli 2022 @ 23:29:
[...]


Het is de(!) manier om Geforce Now te verkopen :+.
Gelukkig werkt Geforce Now niet in Linux. >:)

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op woensdag 27 juli 2022 @ 10:10:
[...]
Ik denk dat AMD Navi31 op 400W of zelfs 375W zal proberen te houden.
Ja, mijn verwachting is ook dat we een 450W 4090 FE tegen een 375-400W 7900 XT zien strijden. Al denk ik dat de Nvidia kaarten meer geboost zullen worden door de board partners en de verschillen in de praktijk dus hoger zullen zijn.

En dan verwacht ik later een 600W 4090 Ti tegen een 450-500W 7950 XT.

Die 800W Nvidia kaart met 48GB kan ik wat moeilijk plaatsen. Als die er komt lijkt het mij logischer wanneer dat als een Titan kaart wordt verkocht. Ik zie anders niet echt ruimte in de line-up.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

NVIDIA GeForce RTX 40-series Cards to Enter Production Next Month, Partners to Receive First Cards

Tech publication PRO Hi-Tech reports that one of their contacts among NVIDIA add-in-card (AIC) partners told them, that the AIC could receive the first RTX 40-series cards from NVIDIA "in less than a month" (mid/late August). This roughly aligns with the product development timeline reported by Igor's Lab, which put the final stages of hardware development by July 2022, with production validation testing in August, with video-BIOS source release, and start of mass-production toward the end of August. This would mean that prototypes of the cards are already in the hands of the AICs, and August could see them receive close-to-final hardware while they await the release of a working BIOS. With mass-production commencing toward the end of August or September, product launches could commence by Q4-2022.

[ Voor 62% gewijzigd door Help!!!! op 28-07-2022 19:59 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 14:21
Weet niet of het al een keer voorbij gekomen is maar er word gewerkt aan een Nvidia LDAT clone voor thuis nerds:

https://sid.onlinelibrary.wiley.com/doi/10.1002/jsid.1104

Ik kan persoonlijk niet wachten tot ik zelf mijn games kan testen omdat de resultaten per game echt heel verschillend kunnen zijn. Ik snap niet dat Nvidia ze niet gewoon verkoopt voor 50 euro. Ik zou vooraan staan maar als ik er zelf 1 kan bouwen of een 3rd party kan kopen zou dat ook top zijn.

Acties:
  • +3 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29

NVIDIA RTX 4090/4080/4070 3DMark performance

Hardware leaker Kopite7kimi now claims to know the performance of upcoming GeForce RTX 40 series.
According to the user, RTX 4080 and RTX 4070 would both score higher than 10K in 3DMark TimeSpy Extreme test. This is a report following RTX 4090 performance reveal about 10 days ago, where the same leaker revealed that the card reaches as high as 19K points in the same test.

This time around, Kopite is revealing the performance of RTX 4080 and RTX 4070 models, both of which are expected after RTX 4090 makes a debut somewhere in early Q4. He noted that those scores are based on previously mentioned specs, which in this case means AD103 GPU with 10240 CUDA cores for RTX 4080 and AD104 GPU with 7168 CUDA cores for the RTX 4070.



If those scores were correct, then RTX 4070 would be just as fast as RTX 3090 and Radeon RX 6900XT in the same test. The RTX 4080, on the other hand would be almost twice as fast as the RTX 3080.

https://videocardz.com/ne...ark-performance-estimates


Full NVIDIA RTX 40 “AD104” GPU with 7680 cores and 400W TDP to match RTX 3090 Ti in performance

Potential RTX 4070 Ti could match RTX 3090 Ti in terms of performance
The rumored specs for RTX 4070 with 7168 CUDA cores and 10GB memory on a 160-bit bus may seem underwhelming to some GPU enthusiasts. But such configuration is already capable of competing with NVIDIA’s high-end RTX 3090 GPU in 3DMark TimeSpy, at least that’s according to hardware leaker Kopite7kimi. However, the limited bandwidth may still become a bottleneck in some instances.

As it turns out, NVIDIA is already preparing a full variant of AD104 GPU, featuring 7680 cores and 12GB memory across a 192-bit memory bus. Such configuration would allegedly provide matching performance to the RTX 3090 Ti, the flagship Ampere desktop GPU which debuted in March this year. With a wider memory bus and faster memory, such a variant would have 40% higher memory bandwidth (360 → 504 GB/s) than RTX 4070.



More cores and faster memory would come at a cost of higher power consumption. It is said that PG141/SKU331 power draw reaches 400W, so 100W higher than RTX 4070’s (300W). It is too early to put a name on this configuration, but if RTX 3070 Ti with full GA104 GPU was any lesson for us – this should be the RTX 4070 Ti.

https://videocardz.com/ne...tx-3090-ti-in-performance

Hopelijk komen er binnenkort betrouwbare cijfers over beide merken. Vooral gezien p/w waarschijnlijk relevanter dan ooit tevoren zou kunnen worden en de scores zo te lezen berekende waardes zijn i.p.v. echte leaks :+.

[ Voor 32% gewijzigd door Paprika op 01-08-2022 15:33 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dat ziet er echt uit als:
-Veel meer L2 cache uitruilen tegen minder geheugenbus.
-Veel hogere clockspeeds + veel hoger TDP.

Maar 400W voor een 04 chip in de xx70 klasse? Ik kan hier eigenlijk alleen maar met afkeuren naar kijken.
Niet alleen krijg je zo een straalkachel in je computer, maar dit impliceert ook dat Nvidia weinig fundamenteels verbeterd lijkt te hebben over Ampere.

Dat AD102 nu bezopen zou worden, daar had ik me allang bij neergelegd. Maar als AD104 ook zo gaat worden, dan gaat deze generatie van Nvidia qua innovatieoogpunt echt niks worden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
DaniëlWW2 schreef op maandag 1 augustus 2022 @ 18:07:

Maar 400W voor een 04 chip in de xx70 klasse? Ik kan hier eigenlijk alleen maar met afkeuren naar kijken.
Niet alleen krijg je zo een straalkachel in je computer, maar dit impliceert ook dat Nvidia weinig fundamenteels verbeterd lijkt te hebben over Ampere.
Reviews (+ undervolt mogelijkheden) zullen leidend zijn, want mijn 3080 draai ik nu al met een max van 250W (±1940MHz ipv ±2050MHz met het normale limiet) wat echt aanzienlijk scheelt in de warmte van de kast en ook de ruimte waar deze zich in bevindt. Er zit nu al een tijdje een Suprim X bios op de Trio en daarmee is het powerlimiet open te zetten tot een belachelijke 430W, maar de opwarming van de kantoorkamer is dan echt onacceptabel voor alles behalve de koudere winterdagen. Op een zonnige lente, zomer of najaarsdag is het gewoonweg niet vol te houden.

Ik ben dan ook reuze benieuwd hoe beide merken het gaan doen bij een limiet van < 300W en dat is echt mijn max. Verder is het ook nog maar de vraag welke van alle mogelijke kaarten dan de beste keus gaat zijn. Je kunt immers de meest extreme kaarten ook drastisch limiteren in hun verbruik, maar er komt een breaking point waarbij een kleinere die nou eenmaal beter presteert met een bepaald limiet, omdat je anders elders een bottleneck krijgt en/of je dan weer onder het meest optimale efficiëntie punt van de desbetreffende GPU gaat zitten.

[ Voor 18% gewijzigd door Paprika op 01-08-2022 18:25 ]


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ik zie vermeende verbruikstoename met lede ogen aan. Tot nu toe geen zin gehad om te undervolten, ik wil gewoon een pc die werkt en heb niet meer zoveel zin in (tijdrovend) gepiel, maar mocht ik zo'n 4080 of 7800XT oid hebben dan ontkom je er wellicht niet aan om het verbruik en temperatuur enigzins in de hand te houden.

Wat mij betreft is dit niet de goede weg voor in ieder geval de consumentenmarkt. Stofzuigers van 1000W+ zijn in de ban gedaan en dan is dit wel ok :?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op maandag 1 augustus 2022 @ 18:20:
[...]

Reviews (+ undervolt mogelijkheden) zullen leidend zijn, want mijn 3080 draai ik nu al met een max van 250W (±1940MHz ipv ±2050MHz met het normale limiet) wat echt aanzienlijk scheelt in de warmte van de kast en ook de ruimte waar deze zich in bevindt. Er zit nu al een tijdje een Suprim X bios op de Trio en daarmee is het powerlimiet open te zetten tot een belachelijke 430W, maar de opwarming van de kantoorkamer is dan echt onacceptabel voor alles behalve de koudere winterdagen. Op een zonnige lente, zomer of najaarsdag is het gewoonweg niet vol te houden.

Ik ben dan ook reuze benieuwd hoe beide merken het gaan doen bij een limiet van < 300W en dat is echt mijn max. Verder is het ook nog maar de vraag welke van alle mogelijke kaarten dan de beste keus gaat zijn. Je kunt immers de meest extreme kaarten ook drastisch limiteren in hun verbruik, maar er komt een breaking point waarbij een kleinere die nou eenmaal beter presteert met een bepaald limiet, omdat je anders elders een bottleneck krijgt en/of je dan weer onder het meest optimale efficiëntie punt van de desbetreffende GPU gaat zitten.
Ik heb precies hetzelfde. Mijn RX5700XT kan tot 280W gaan (220W bios + 60W voor VRAM en efficiency loss). Die heeft alleen een bios switch met drie posities en de middelste laat je met software tussen de twee biossen wisselen. Ik ben ook teruggegaan naar de iets efficiëntere 195W bios omdat die 220W ook flink te merken is. En in de praktijk haal je die 220W op de GPU nauwelijks. Eigenlijk denk ik dat ik niet eens over de 250W wil gaan met videokaarten.

Undervolting en/of een efficiënte bios op AIB modellen gaan zowat noodzaak worden als Nvidia zo gaat beginnen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
Help!!!! schreef op maandag 1 augustus 2022 @ 18:35:
Ik zie vermeende verbruikstoename met lede ogen aan. Tot nu toe geen zin gehad om te undervolten, ik wil gewoon een pc die werkt en heb niet meer zoveel zin in gepiel, maar mocht ik zo'n 4080 of 7800XT oid hebben dan ontkom je er wellicht niet aan om het verbruik en temperatuur enigzins in de hand te houden.

Wat mij betreft is dit niet de goede weg voor in ieder geval de consumentenmarkt. Stofzuigers van 1000W+ zijn in de ban gedaan en dan is dit wel ok :?
Ik moet dan altijd een beetje denken aan oude foto's van 2007 en 2008:
Afbeeldingslocatie: https://pcper.com/wp-content/uploads/2007/12/0b69-3waysetup.jpg

1 zo'n kaart werd toen al gezien als extreem en had een TDP van 171W. Nu gaan we naar single-GPU opstelling die meer verbruiken dan de hele opstelling zoals deze te zien is bij bovenstaande setup.

Afbeeldingslocatie: https://tweakers.net/i/yiwdbGBjK1BkRyauZi2g-ABQrSE=/x800/filters:strip_exif()/f/image/Hb0vL1IeK9JKVHfrSuNh7pv5.png?f=fotoalbum_large
I was talking to Matthew Witheiler, our first dedicated graphics editor here at AnandTech, I told him how much power the system used under load and while idle. His response? "JESUS". "No", I said, "not even Jesus needs this much power".
https://www.anandtech.com...5&all=False&sort=0&page=5

[ Voor 26% gewijzigd door Paprika op 01-08-2022 18:45 ]


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

Ik ben nog steeds van mening dat de 2080 een soort van sweet spot is geweest. GPU gebruikt met een undervolt nog geen 150watt en heeft prima prestaties.

De 20** serie werd altijd afgedaan als een mislukking en een slechte serie maar I beg to differ. Ik kan zelfs zakken tot 130watt en draai dan rond de 1850mhz.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:28
OMD schreef op maandag 1 augustus 2022 @ 18:49:
Ik ben nog steeds van mening dat de 2080 een soort van sweet spot is geweest. GPU gebruikt met een undervolt nog geen 150watt en heeft prima prestaties.

De 20** serie werd altijd afgedaan als een mislukking en een slechte serie maar I beg to differ. Ik kan zelfs zakken tot 130watt en draai dan rond de 1850mhz.
Ik denk eigenlijk niet dat je zit zo kan zeggen. Een gelijkwaardige Ampere die zal immers zal immers beter presteren met dezelfde undervolt en als het goed is minder kosten.

De 2080 kan best een goede koop zijn geweest, maar dan moet je wel flink minder betaald hebben dan de €849 die deze kaart volgens Tweakers bij launch moest kosten. Qua hardware is er immers niet veel mis met de 2xxx serie, maar de prijs / performance verhouding was vaak wel zeer slecht, terwijl de kaarten relatief goed verkrijgbaar waren en dus de prijzen niet opgedreven werden door cryptoschaarste.

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

Dennism schreef op maandag 1 augustus 2022 @ 19:23:
[...]


Ik denk eigenlijk niet dat je zit zo kan zeggen. Een gelijkwaardige Ampere die zal immers zal immers beter presteren met dezelfde undervolt en als het goed is minder kosten.

De 2080 kan best een goede koop zijn geweest, maar dan moet je wel flink minder betaald hebben dan de €849 die deze kaart volgens Tweakers bij launch moest kosten. Qua hardware is er immers niet veel mis met de 2xxx serie, maar de prijs / performance verhouding was vaak wel zeer slecht, terwijl de kaarten relatief goed verkrijgbaar waren en dus de prijzen niet opgedreven werden door cryptoschaarste.
Ze waren niet echt makkelijk verkrijgbaar bij launch moet ik eerlijk zeggen. Ik heb er 780 euro voor betaald. Dat kost nu de 3080 (msrp) maar die verbruikt zo verschrikkelijk veel meer.

Gaat om prestatie per watt. Dit is de laatste generatie misschien die een normaal verbruik hebben in plaats van 250+ watt.

Alleen de 3060 komt met een undervolt in de buurt. Maar dat is een mid tier kaart. Ik bedoel te zeggen dat de 2080 al in mid/high tier zat met niet zo een achterlijk verbruik en het wordt alleen maar erger.

De 2080 moet je nu dus even met de 3080 vergelijken qua vermogen.

Denk dat ik het niet goed kan uitleggen maar ben ook niet thuis en doe het snel via mobiel :+

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:28
OMD schreef op maandag 1 augustus 2022 @ 19:55:

Gaat om prestatie per watt. Dit is de laatste generatie misschien die een normaal verbruik hebben in plaats van 250+ watt.
Maar dat is exact wat ik bedoel, een RTX 3080 zal efficienter zijn, dus een betere perf / watt met een gelijke undervolt aan jouw 2080. Ook al is het stock verbruik flink hoger, de performance per watt van een stock 3080 is immers ook veel hoger dan de perf / watt van een stock 2080.

Zie o.a.

Afbeeldingslocatie: https://static.techspot.com/articles-info/2099/bench/Perf_Watt-p.webp

Je moet dus niet een stock 3080 vergelijken met jouw undervolted 2080, maar een undervolted 3080

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

Ik begrijp wat je bedoelt en ik snap dat de performance per watt beter is bij de 3080 maar dan verbruikt hij nog steeds gigantisch veel meer dan een 2080.

Ik je het echt over wat je krijgt voor prestatie per watt bij zo een laag wattage. De 2080 en 2070 super zijn kaarten die relatief veel performance bieden tegen sub 150 watt.

De 3080 op 875mv gebruikt nog steeds boven de 250 watt. Hij is stock 30 tot 45% sneller (overall) dus ik ga er van uit dat dit ook zo is op 875mv. Verbruik is alleen 90 tot 110% meer.
Heb even een gemiddelde genomen van techpowerup:
https://www.techpowerup.c...-founders-edition/30.html

https://www.techpowerup.c...-founders-edition/34.html

Ben daar wel beetje sceptisch in omdat ik weet dat sommige spellen de 3080 meer dan 100% sneller is. Corrigeer mij als ik het verkeerd interpreteer.

De 2080 is dezelfde positie als de 3080 en het verbruik is dubbel zoveel (bij undervolt). Dan kan de prestatie we hoger zijn maar het is een slechte ontwikkeling. Als de 4080 naar de 350/400 watt gaat en boven de 300 blijft met een undervolt dan vind ik persoonlijk dat dat niet goed gaat.

Ik snap natuurlijk dat in elk scenario de 3080 sneller is met een undervolt en ook wanneer je het vermogen gelijk trekt (wat dus niet kan). De ontwikkeling van de architectuur staat natuurlijk niet stil.

[ Voor 20% gewijzigd door OMD op 01-08-2022 21:26 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • harold340
  • Registratie: Juli 2013
  • Laatst online: 25-02-2024
OMD schreef op maandag 1 augustus 2022 @ 19:55:
[...]


Ze waren niet echt makkelijk verkrijgbaar bij launch moet ik eerlijk zeggen. Ik heb er 780 euro voor betaald. Dat kost nu de 3080 (msrp) maar die verbruikt zo verschrikkelijk veel meer.

Gaat om prestatie per watt. Dit is de laatste generatie misschien die een normaal verbruik hebben in plaats van 250+ watt.

Alleen de 3060 komt met een undervolt in de buurt. Maar dat is een mid tier kaart. Ik bedoel te zeggen dat de 2080 al in mid/high tier zat met niet zo een achterlijk verbruik en het wordt alleen maar erger.

De 2080 moet je nu dus even met de 3080 vergelijken qua vermogen.

Denk dat ik het niet goed kan uitleggen maar ben ook niet thuis en doe het snel via mobiel :+
Wanneer je een rtx 2080 gebruikt met freesync 60hz, dan verbruikt die kaart meer stroom dan een rtx 3060 ti/3070. Tenminste, dat is volgens de testen bij techpowerup,

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

harold340 schreef op dinsdag 2 augustus 2022 @ 00:59:
[...]

Wanneer je een rtx 2080 gebruikt met freesync 60hz, dan verbruikt die kaart meer stroom dan een rtx 3060 ti/3070. Tenminste, dat is volgens de testen bij techpowerup,
Dat kan, maar daar gaat het niet over :)
De 3060 is ook een stuk trager overall gezien dan een 2080. Welke grafiek bedoel jij dan? Als ik de grafiek er bij zoek over die 60hz dan staat de 3060 op 183 watt en de 2080 op 85 watt :?
Afbeeldingslocatie: https://tweakers.net/i/jIYs0Perr9Xm1n6RW_oJH63bXFY=/x800/filters:strip_exif()/f/image/8OwOxdO15n1QLTypu35sXuKe.png?f=fotoalbum_large

[ Voor 37% gewijzigd door OMD op 02-08-2022 08:40 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:28
OMD schreef op maandag 1 augustus 2022 @ 21:16:


De 3080 op 875mv gebruikt nog steeds boven de 250 watt. Hij is stock 30 tot 45% sneller (overall) dus ik ga er van uit dat dit ook zo is op 875mv.
Dit lijkt al mank te gaan, als ik kijk naar de cijfers die jij linked:

https://www.techpowerup.c...-founders-edition/30.html

Is de 3080 op 1080P 37% sneller (gebruikte berekening: ((186.6 - 135.7) / 135.7) * 100 = 37.51 % )
Op 1440P 52% sneller
En op 4K 67% sneller.
Verbruik is alleen 90 tot 110% meer.
Waar kan ik dit zien? Ik zie als ik door de diverse reviews heen ga veel lagere waarden. Bij Hardware unboxed zoals ik eerder al linkte is het verschil in power zo'n 28% (het lijkt er trouwens ook op dat de 2080 'cheat' in sommige reviews, omdat deze enkel het maximale verbruik van de gpu lijkt weer te geven (rond de 215W), terwijl de RTX 3080 TBP rapporteert (waar dus o.a. ook het verbruik van het geheugen in zit). iets dat de Hardware Unboxed review goed laat zien, want daar verbruikt de RTX 2080 ineens +-250W ipv het 'TDP' van 2015W.)

Acties:
  • 0 Henk 'm!

  • harold340
  • Registratie: Juli 2013
  • Laatst online: 25-02-2024
OMD schreef op dinsdag 2 augustus 2022 @ 08:34:
[...]


Dat kan, maar daar gaat het niet over :)
De 3060 is ook een stuk trager overall gezien dan een 2080. Welke grafiek bedoel jij dan? Als ik de grafiek er bij zoek over die 60hz dan staat de 3060 op 183 watt en de 2080 op 85 watt :?
[Afbeelding]
Ik had het over de 3060 ti en de 3070.
Daar gaat het in principe wel over. Wanneer jij je frames op een respectabele frames vast zet dan kun je in principe zien welke kaart het efficiëntst is bij de hoeveelheid frames.

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

Dennism schreef op dinsdag 2 augustus 2022 @ 10:53:
[...]


Dit lijkt al mank te gaan, als ik kijk naar de cijfers die jij linked:

https://www.techpowerup.c...-founders-edition/30.html

Is de 3080 op 1080P 37% sneller (gebruikte berekening: ((186.6 - 135.7) / 135.7) * 100 = 37.51 % )
Op 1440P 52% sneller
En op 4K 67% sneller.


[...]


Waar kan ik dit zien? Ik zie als ik door de diverse reviews heen ga veel lagere waarden. Bij Hardware unboxed zoals ik eerder al linkte is het verschil in power zo'n 28% (het lijkt er trouwens ook op dat de 2080 'cheat' in sommige reviews, omdat deze enkel het maximale verbruik van de gpu lijkt weer te geven (rond de 215W), terwijl de RTX 3080 TBP rapporteert. iets dat de Hardware Unboxed review goed laat zien, want daar verbruikt de RTX 2080 ineens +-250W ipv het 'TDP' van 2015W.)
We hebben het over undervolten van beide kaarten. Wil je aub de stock waardes achterwege laten, dit staat ook gewoon in de posts.

Elke kleuter kan uiteraard zien dat de standaard de 2080 200/225 wattt doet (afhankelijk van uitvoering) en de 3080 295 tot 320watt doet. Je hoeft geen geleerde te zijn om daar uit te concluderen dat er geen verschil in zit van 90 tot 110%.

Undervolted is een ander verhaal. op 875mv is de 3080 rond de 255 tot 290 watt. De 2080 daarentegen tussen de 130 en 140 watt. Dat verschil is 90 tot 110%.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

harold340 schreef op dinsdag 2 augustus 2022 @ 10:54:
[...]

Ik had het over de 3060 ti en de 3070.
Daar gaat het in principe wel over. Wanneer jij je frames op een respectabele frames vast zet dan kun je in principe zien welke kaart het efficiëntst is bij de hoeveelheid frames.
Is ook mijn punt helemaal niet. Het zou wat zijn als nieuwe generatie kaarten niet efficienter zouden zijn. Het probleem is dat het niet lukt om het vermogen zo laag te krijgen als voorgaande gelijke generatie kaarten. Dat is mijn hele punt.

Het kan wel efficienter zijn bij het zelfde vermogen maar dat lukt je niet. En de 3060ti of 3070 heb ik niets mee te schaften. Vermogens wise moet je kaarten vergelijken die hetzelfde zijn gepositioneerd. De 1080 tegen 2080, de 2080 dus tegen de 3080. 3080 tegen de 4080 etc etc. Hopelijk begrijp je het nu wat ik bedoel. Je moet in wat ik probeer te vertellen niet kijken naar lager gepositioneerde kaarten. Dan moet je de 2060 er ook bij pakken. Het is verrekte logisch dat een 3060ti efficiënter is.

Het opgenomen vermogen stijgt enorm zonder een enorme sprong in snelheid. Ik ben bang dat dit weer gaat gebeuren met de 40** serie.
Daar gaat het in principe wel over. Wanneer jij je frames op een respectabele frames vast zet dan kun je in principe zien welke kaart het efficiëntst is bij de hoeveelheid frames.
Dit vind ik altijd een kromme vergelijking. De nieuwe generatie kaarten hebben minder moeite om een bepaalde fps vast te houden dan een oudere generatie. Je kan toch niet the witcher bijvoorbeeld op 60fps zetten en verbaasd zijn dat een 3080 dit makkelijker doet dan een 2080 en dus de 2080 meer verbruikt? Een auto met een v6 motor loopt ook makkelijk 100 dan een auto met een 0,75 liter 3 cilinder zonder turbo.

Je moet vermogen gelijk zetten maar dat gaat dus niet helemaal. Dat is verrekte moeilijk te vergelijken. Ik zou wel is een vergelijk willen zien tussen de 3080 en 2080, 3070 vs 2070 op gelijk opgenomen vermogen. De 3080 dus tussen de 130 en 150 watt. Dan moet je dus soms de helft aan vermogen inleveren. Ik vraag me af of de 30** kaarten dan nog steeds zo snel en efficient zijn.


Feit blijft. Het is een slechte ontwikkeling dat er zoveel vermogen wordt gevraagd. Dit worden Fermi perikelen :+

[ Voor 30% gewijzigd door OMD op 02-08-2022 11:13 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:28
OMD schreef op dinsdag 2 augustus 2022 @ 10:57:

Undervolted is een ander verhaal. op 875mv is de 3080 rond de 255 tot 290 watt. De 2080 daarentegen tussen de 130 en 140 watt. Dat verschil is 90 tot 110%.
Daarom vroeg ik dus ook, waar kan ik die waardes vinden (in een review van een gerespecteerde reviewer), het enige waar jij naar linked zijn immers charts met stock values (daarom heb ik het dus ook over stock values, jij linked er immers naar).

Bijvoorbeeld deze random reviewer die ik even google haalt veel lagere waardes dan dat jij nu beweerd bij de 3080:

YouTube: RTX 3080 / 3090 Undervolting | 100W Less = Same Performance? terwijl de performance amper lijkt te dalen: YouTube: RTX 3080 / 3090 Undervolting | 100W Less = Same Performance? en YouTube: RTX 3080 / 3090 Undervolting | 100W Less = Same Performance?

Kijk ik naar zijn waardes is het performance verschil op 1440P 9% tussen stock en 786mv undervolt, terwijl het verbruik 36% lager lijkt te liggen (van 318W naar 203W).

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
OMD schreef op dinsdag 2 augustus 2022 @ 10:57:
[...]
Undervolted is een ander verhaal. op 875mv is de 3080 rond de 255 tot 290 watt. De 2080 daarentegen tussen de 130 en 140 watt. Dat verschil is 90 tot 110%.
De haalbare undervolt verschilt per kaart. Als je een golden sample hebt van de 2080 en een kneusje van de 3080 dan ga je heel andere resultaten vinden dan als je een golden sample hebt van de 3080 en een 2080 kneusje.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

Dennism schreef op dinsdag 2 augustus 2022 @ 11:14:
[...]


Daarom vroeg ik dus ook, waar kan ik die waardes vinden (in een review van een gerespecteerde reviewer), het enige waar jij naar linked zijn immers charts met stock values (daarom heb ik het dus ook over stock values, jij linked er immers naar).

Bijvoorbeeld deze random reviewer die ik even google haalt veel lagere waardes dan dat jij nu beweerd bij de 3080:

YouTube: RTX 3080 / 3090 Undervolting | 100W Less = Same Performance? terwijl de performance amper lijkt te dalen: YouTube: RTX 3080 / 3090 Undervolting | 100W Less = Same Performance? en YouTube: RTX 3080 / 3090 Undervolting | 100W Less = Same Performance?

Kijk ik naar zijn waardes is het performance verschil op 1440P 9% tussen stock en 786mv undervolt, terwijl het verbruik 36% lager lijkt te liggen (van 318W naar 203W).
Dank voor het filmpje, die had ik nog neit gevonden.

Dit lijkt wel echt een extreem geval. Mijn kaart is bijvoorbeeld redelijk slecht qua minimum voltage maar nagenoeg iedereen die een 2080 undervolt krijgt hem op 875mv en kost nauwlijks perfomance (helemaal geen 9%). Mijn kaart loopt stock op 1935mhz en met undervolt op max 1905. (meestal rond de 1875)

https://bjorn3d.com/2020/...-rtx3090/2/#split_content
Hij krijgt de 3080 tot 875mv met een flinke inlevering qua klokfrequentie. Kaart gebruikt dan minimaal 270watt. Dat komt wel een beetje overeen met andere reviewers en gebruikters resultaten.

Wat @Ludewig zegt is natuurlijk helemaal aan de orde. Dat filmpje wat er gelinked wordt is echt een bijzonder geval als ik zo Google er even op neersla en reddit restultaten.

Ik vind waar we naar toe gaan gewoon een slechte zaak. De CPU's gaan ook omhoog qua opgenomen vermogen en de GPU's slaan een beetje door. Ik heb nu een systeem waarbij de CPU en GPU gezamelijk nog geen 200watt verbruiken en ik heb op een 3440x1440 scherm nog steeds acceptabele resultaten.

Als een systeem meer dan 600watt continu er uit zit te pompen, wat denk je dat dat gaat doen met de temperatuur in je kamer? Dat wordt in de zomer geen spelletje spelen kan ik je vertellen :+

[ Voor 18% gewijzigd door OMD op 02-08-2022 11:29 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • CryptoArnold
  • Registratie: April 2022
  • Laatst online: 29-10-2022
Zoveel is 300 400w niet. vroeger had iedereen 480 SLI. die kaarten kosten zon 800 euro (2e hands waren ze spotgoedkoop) en verstoken dik 600w samen. Zelfde geldt voor 580SLI.. waren LANG de top kaarten.
SLI was echt de trend hehehe

[ Voor 17% gewijzigd door CryptoArnold op 02-08-2022 14:11 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
CryptoArnold schreef op dinsdag 2 augustus 2022 @ 14:10:Zoveel is 300 400w niet. vroeger had iedereen 480 SLI.
Net zoals iedereen tegenwoordig een 3090 heeft?

8)7

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • CryptoArnold
  • Registratie: April 2022
  • Laatst online: 29-10-2022
Ludewig schreef op dinsdag 2 augustus 2022 @ 14:21:
[...]


Net zoals iedereen tegenwoordig een 3090 heeft?

8)7
Er kwamen heel lang geen nieuw series kaarten uit toentertijd en iedereen werd er moe van, veel gingen over op SLI

[ Voor 4% gewijzigd door CryptoArnold op 02-08-2022 14:23 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

CryptoArnold schreef op dinsdag 2 augustus 2022 @ 14:10:
Zoveel is 300 400w niet. vroeger had iedereen 480 SLI. die kaarten kosten zon 800 euro (2e hands waren ze spotgoedkoop) en verstoken dik 600w samen. Zelfde geldt voor 580SLI.. waren LANG de top kaarten.
SLI was echt de trend hehehe
Zoveel is 400 watt niet. Jij hebt duidelijk geen kaas gegeten van warmte afgifte haha.

Tdp was maar 250 watt van de 480 (idem voor de 580) en heel weinig mensen hadden SLI vanwege slechte ondersteuning (toen al).
De top tier kaart van de 30** serie gaat ver boven de 400 watt komen.

De 590 had je al SLI op 1 kaart. De 590. Deze had een tdp van minder dan 400 watt. Dat zijn 2 GPU’s! Daar gaat de komende generatie met gemak over heen.

Dat is meer iets uit de tijd van de 8800gt enzo.

[ Voor 11% gewijzigd door OMD op 02-08-2022 14:30 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
CryptoArnold schreef op dinsdag 2 augustus 2022 @ 14:23:
[...]

Er kwamen heel lang geen nieuw series kaarten uit toentertijd en iedereen werd er moe van, veel gingen over op SLI
Wat is heel lang?

HD5870: 23 september 2009 (en een betere keuze dan een GTX 480)
GTX 480: 26 maart 2010
GTX 580: 9 november 2010
HD6970: 14 december 2010
HD7970: 22 december 2011
GTX 680: 22 maart 2012

Afbeeldingslocatie: https://tpucdn.com/review/asus-geforce-gtx-680-sli/images/perfwatt_1920.gif

De performance/watt van een GTX 680 in SLI was nog beter dan een enkele GTX 480. 8)7

Uit de summary van de GTX 480 review:
  • High power draw
  • Noisy cooler
  • High temperatures
  • Fairly high price
  • Paper launch
  • High temperatures and power draw makes SLI and triple SLI difficult
  • Limited availability
  • Only 480 shaders
  • DirectX 11 won't be relevant for quite a while
https://www.techpowerup.c...rce-gtx-480-fermi/36.html

offtopic:
@Help!!!!, dit is de gezonde variant en je kunt het nog uitspreken ook :+.

[ Voor 29% gewijzigd door Paprika op 02-08-2022 16:08 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

@Paprika

offtopic:
Jij was toch Vipeax :? :o

[ Voor 3% gewijzigd door Help!!!! op 02-08-2022 15:59 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

Paprika schreef op dinsdag 2 augustus 2022 @ 15:39:
[...]

Wat is heel lang?

HD5870: 23 september 2009 (en een betere keuze dan een GTX 480)
GTX 480: 26 maart 2010
GTX 580: 9 november 2010
HD6970: 14 december 2010
HD7970: 22 december 2011
GTX 680: 22 maart 2012

[Afbeelding]

De performance/watt van een GTX 680 in SLI was nog beter dan een enkele GTX 480. 8)7

Uit de summary van de GTX 480 review:

[...]

https://www.techpowerup.c...rce-gtx-480-fermi/36.html

offtopic:
@Help!!!!, dit is de gezonde variant en je kunt het nog uitspreken ook :+.
Zat altijd met de illusie dat Kepler zo efficient was. Blijkbaar was GCN net zo effcient; vermoed dat dit ook met drivers op de lange termijn is verbeterd. Daarnaast heeft GCN een hardware scheduler en Kepler niet of haast niet meer (waardoor meer cpu overhead).

Hij is geen slang meer en nu vegan :+

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
OMD schreef op dinsdag 2 augustus 2022 @ 14:27:
Tdp was maar 250 watt van de 480 (idem voor de 580) en heel weinig mensen hadden SLI vanwege slechte ondersteuning (toen al).
Even los van de nauwkeurigheid van Nvidia's "TDP", was dat in die tijd weldegelijk belachelijk. Er was niets, maar dan ook helemaal niets wat daarbij in de buurt kwam. Zelfs met Furmark kreeg je een GTX 280 maar net tot de 250W geduwd...en de 480 deed dan 320W (daarom heeft Nvidia toen hun Furmark.exe blocker ingevoerd ;)). In games zat er (behalve de 480) helemaal niets boven de 200W behalve de 295, 5970 en 4870 X2. De dual GPU kaarten inderdaad. En de 5970 ging ook maar nét over de 200W heen; piek van dat ding zat rond de 300W in Furmark. Nog steeds minder dan de 480. De 5870 zat intussen ruim onder de 150W in games.

Sterker nog, het enige wat in games boven de 150W kwam (los van dual-GPU kaarten) waren Nvidia's GT200 GPU's. G88/G92, RV770 en Cypress zaten allemaal onder de 150W. Zelfs Furmark pushte de meeste dingen slechts tot zo'n 200W. De 580 was ook niks beter, die ging nog steeds over de 200W heen in games.
Sp3ci3s8472 schreef op dinsdag 2 augustus 2022 @ 19:41:
Zat altijd met de illusie dat Kepler zo efficient was. Blijkbaar was GCN net zo effcient; vermoed dat dit ook met drivers op de lange termijn is verbeterd. Daarnaast heeft GCN een hardware scheduler en Kepler niet of haast niet meer (waardoor meer cpu overhead).
Moet je vooral eens onderaan de tabel kijken. Kepler was een gigantische stap vooruit...voor Nvidia. Ik heb die obsessie met Kepler nooit begrepen. Maxwell wel, maar Kepler niet.

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

Werelds schreef op dinsdag 2 augustus 2022 @ 21:06:
[...]

Even los van de nauwkeurigheid van Nvidia's "TDP", was dat in die tijd weldegelijk belachelijk. Er was niets, maar dan ook helemaal niets wat daarbij in de buurt kwam. Zelfs met Furmark kreeg je een GTX 280 maar net tot de 250W geduwd...en de 480 deed dan 320W (daarom heeft Nvidia toen hun Furmark.exe blocker ingevoerd ;)). In games zat er (behalve de 480) helemaal niets boven de 200W behalve de 295, 5970 en 4870 X2. De dual GPU kaarten inderdaad. En de 5970 ging ook maar nét over de 200W heen; piek van dat ding zat rond de 300W in Furmark. Nog steeds minder dan de 480. De 5870 zat intussen ruim onder de 150W in games.

Sterker nog, het enige wat in games boven de 150W kwam (los van dual-GPU kaarten) waren Nvidia's GT200 GPU's. G88/G92, RV770 en Cypress zaten allemaal onder de 150W. Zelfs Furmark pushte de meeste dingen slechts tot zo'n 200W. De 580 was ook niks beter, die ging nog steeds over de 200W heen in games.


[...]

Moet je vooral eens onderaan de tabel kijken. Kepler was een gigantische stap vooruit...voor Nvidia. Ik heb die obsessie met Kepler nooit begrepen. Maxwell wel, maar Kepler niet.
Is niet helemaal waar (in de zin wat Nvidia opgeeft). De 480 kon Max 320 watt verstoken (de furmark troep etc) en gemiddelde gaming verbruik was rond de 210 watt. Max gaming verbruik was rond de 250 watt.

https://www.techpowerup.c...rce-gtx-480-fermi/30.html

Toch wel wat Nvidia opgaf.

De 280 was maar iets zwaarder dan de 480. Die zat rond de 275 watt op gaming piek vermogen.

[ Voor 3% gewijzigd door OMD op 02-08-2022 21:27 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +3 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

CryptoArnold schreef op dinsdag 2 augustus 2022 @ 14:23:
[...]

Er kwamen heel lang geen nieuw series kaarten uit toentertijd en iedereen werd er moe van, veel gingen over op SLI
Hee, de 480, dat was toch fermi? Die kaart die gepresenteerd werd met houtschroeven erin, omdat NVidia heel erg achterliep omdat ze de grote lekstromen op TSMC 40nm niet goed aan de praat kregen? De kaart die in reviews werd afgefakkeld omdat 'ie na de HD5870 kwam, en hoewel de 480 nipt de single-GPU prestatiekroon wist te pakken, dat wel moest doen met een (voor die tijd) enorm hoog stroomverbruik en een te hoge prijs?

Volgens mij was de situatie anders dan hoe je hem herinnert en is 480 SLI niet wat "iedereen" had, ik kan me vooral herinneren dat elke BBG aanraadde om een 5870 of 5970 te kopen... Laat staan dat de 480 of zelfs de 480 SLI representatief is voor stroomverbruik in die tijd.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
Sp3ci3s8472 schreef op dinsdag 2 augustus 2022 @ 19:41:
[...]


Zat altijd met de illusie dat Kepler zo efficient was. Blijkbaar was GCN net zo effcient; vermoed dat dit ook met drivers op de lange termijn is verbeterd. Daarnaast heeft GCN een hardware scheduler en Kepler niet of haast niet meer (waardoor meer cpu overhead).
Misschien heb je dit artikel van Charlie nog in je achterhoofd en geeft dat bepaalde verwachtingen?

https://www.techpowerup.com/gpu-specs/nvidia-gk104.g108
28nm, 3.540 miljard transistors & 294 mm²

https://www.techpowerup.com/gpu-specs/amd-tahiti.g120
28nm, 4.313 miljard transistors & 352 mm²

Afbeeldingslocatie: https://images.anandtech.com/doci/7457/DieSize4_575px.png

Eigenlijk was het gewoon verrassend dat Nvidia competitief was met een kleine die. Zie bijvoorbeeld ook deze quote:
A part of the reason why NVIDIA's performance-segment GK104 is gunning for the performance crown from AMD's Tahiti GPU could be hidden behind two of its key specifications: transistor count, and die-size. 3DCenter.org compiled these two specifications for the GK104 from reliable sources, which pin the transistor count at 3.54 billion, and die-area at 294 mm². This yields a transistor density of 12 million per mm², which is slightly higher than that of AMD Tahiti, slightly lower than that of AMD Pitcairn, and certainly higher than previous-generation chips from both AMD and NVIDIA. If GeForce GTX 680 does in fact end up competitive with AMD's Radeon HD 7900 series, it could serve as a tell-tale sign of NVIDIA's Kepler architecture being a more efficient one.
https://www.techpowerup.c...d-exact-die-size-revealed

Eigenlijk werden er een heleboel aannames de wereld in geblazen, terwijl de realiteit dus wel meeviel.

Afbeeldingslocatie: https://images.anandtech.com/graphs/graph5699/45174.png

Afbeeldingslocatie: https://images.anandtech.com/graphs/graph5699/45175.png

Een total system power verschil van ± 30 watt tijdens het spelen van een zware game (en 24 watt bij een GPU stresstest) zou vandaag de dag niet eens meer opvallen. :+

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
OMD schreef op dinsdag 2 augustus 2022 @ 21:23:
[...]


Is niet helemaal waar (in de zin wat Nvidia opgeeft). De 480 kon Max 320 watt verstoken (de furmark troep etc) en gemiddelde gaming verbruik was rond de 210 watt. Max gaming verbruik was rond de 250 watt.

https://www.techpowerup.c...rce-gtx-480-fermi/30.html

Toch wel wat Nvidia opgaf.

De 280 was maar iets zwaarder dan de 480. Die zat rond de 275 watt op gaming piek vermogen.
Denk dat je nog eens opnieuw naar je eigen link moet kijken ;)

De 280 komt bij TPU nooit verder dan 249W en dat is dan in Furmark. In games is het 171W. Belangrijkste vergelijking is gewoon de 5870, die zelfs in Furmark maar tot 212 komt en in games onder de 150W blijft, waar de 480 dan dus al over de 250W ging. Fermi was gewoon waardeloos en ik begrijp 12 jaar later nog steeds niet hoe Nvidia toen niet al hun marketshare is kwijt geraakt.

Acties:
  • +1 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

Werelds schreef op woensdag 3 augustus 2022 @ 11:45:
[...]

Denk dat je nog eens opnieuw naar je eigen link moet kijken ;)

De 280 komt bij TPU nooit verder dan 249W en dat is dan in Furmark. In games is het 171W. Belangrijkste vergelijking is gewoon de 5870, die zelfs in Furmark maar tot 212 komt en in games onder de 150W blijft, waar de 480 dan dus al over de 250W ging. Fermi was gewoon waardeloos en ik begrijp 12 jaar later nog steeds niet hoe Nvidia toen niet al hun marketshare is kwijt geraakt.
Dat komt omdat ik met een paar blinde ogen zat te lezen bij een gtx280 review. Maar dat was overall system power, niet alleen de gpu 7(8)7

Word ook een dagje ouder.

De 480 was een complete mislukking.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
OMD schreef op woensdag 3 augustus 2022 @ 13:01:
[...]


Dat komt omdat ik met een paar blinde ogen zat te lezen bij een gtx280 review. Maar dat was overall system power, niet alleen de gpu 7(8)7

Word ook een dagje ouder.

De 480 was een complete mislukking.
Ah, dat verklaart het dan, want TPU is ergens in 2009 begonnen met het correct meten van verbruik. Volgens mij was Cypress dan ook de eerste generatie die zo gemeten werd, want voor de rest was er in 2009 weinig boeiends. De GT200 refresh aan het begin van het jaar en volgens mij wat GT (220, 230, 240) dingetjes halverwege het jaar?

Laat ook wel zien hoe lang TPU dat al doet, volgens mij waren zij ook de eerste :)

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op woensdag 3 augustus 2022 @ 11:45:
[...]

Denk dat je nog eens opnieuw naar je eigen link moet kijken ;)

De 280 komt bij TPU nooit verder dan 249W en dat is dan in Furmark. In games is het 171W. Belangrijkste vergelijking is gewoon de 5870, die zelfs in Furmark maar tot 212 komt en in games onder de 150W blijft, waar de 480 dan dus al over de 250W ging. Fermi was gewoon waardeloos en ik begrijp 12 jaar later nog steeds niet hoe Nvidia toen niet al hun marketshare is kwijt geraakt.
Nieuwe ronde, nieuwe kansen over een paar maanden met een "400W RTX4070Ti". :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
Werelds schreef op woensdag 3 augustus 2022 @ 13:07:
[...]

Ah, dat verklaart het dan, want TPU is ergens in 2009 begonnen met het correct meten van verbruik. Volgens mij was Cypress dan ook de eerste generatie die zo gemeten werd, want voor de rest was er in 2009 weinig boeiends. De GT200 refresh aan het begin van het jaar en volgens mij wat GT (220, 230, 240) dingetjes halverwege het jaar?

Laat ook wel zien hoe lang TPU dat al doet, volgens mij waren zij ook de eerste :)
Dit was de eerste review van ze met de nieuwe meeting:
https://www.techpowerup.c...n275gtx-lightning/28.html

Dan had je nog de belachelijke GTX 285 Mars en daarna kwam Cypress, wat daarmee inderdaad het eerste reference ontwerp werd met de nieuwe meeting.

Afbeeldingslocatie: https://tpucdn.com/review/asus-geforce-gtx-285-mars/images/power_maximum.gif

• Repulsively expensive
• Stock cooler barely able to keep the card stable
• Very noisy
• Huge power consumption
• Next-gen cards coming out soon
• Limited Edition / Limited availability
• Built on SLI technology
• No support for DX10.1, DX11

[ Voor 20% gewijzigd door Paprika op 03-08-2022 13:19 ]


Acties:
  • +4 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 19:27

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Beste mensen, een beetje geschiedenisles is leuk, maar het begint zijn relevantie een beetje te verliezen met de geruchten rondom het stroomverbruik van nVidia Lovelace. Iets meer ontopic bewegen graag. :)

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Al dat gestuiter van de 4070/4080/4090 geruchten, bedenk:
AD102 4090 Ti = 144 SM max
AD103 4080 Ti = 84 SM max (huidige 3090 chip GA102)
AD104 4070 Ti = 60 SM max (huidige 3080 Ti mobile chip GA103)
wat dat betreft blijft de Nvidia hack gewoon staan als "feit":
https://videocardz.com/ne...vidias-own-infinity-cache

Voor de 4080:
https://videocardz.com/ne...graded-to-9728-cuda-cores

420W verbaast mij wel, omdat huidige voedingen slechts getest zijn tot max 300W + 75W moederbord PCIexpres slot = 375W. Als je geen ATX v3.0 gecertificeerde voeding met de 12VHPWR kabel hebt, dan kan/zal de nieuwe 4080 zich inhouden qua performance... ik vraag me af of de reviews daar rekening mee zullen houden en ook zullen testen met "oudere" (lees: vrijwel alle huidige) voedingen.

3GHz 76SM 4080 zou nog steeds genoeg zijn om de huidige 1930MHz 68 SM3080 (10 GB) bijna te verdubbelen.
https://www.techpowerup.c...-founders-edition/32.html
https://www.techpowerup.com/gpu-specs/geforce-rtx-3080.c3621

1,5544*1,176 (80SM) = 1,83
of
1,5544*1,117 (76SM) = 1,74

Zonder verder verbeteringen in de SM's zelf, en aangenomen perfecte schaalbaarheid voor meer SM's en meer klokfrequentie (zal in de praktijk minder zijn).

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nvidia gaat je gewoon vertellen dat je maar een nieuwe voeding koopt of een voeding met drie 8 pin connectoren nodig hebt en je dan een verloopje naar een 500W ATX 3.0 connector moet gebruiken. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:28
sunsmountain schreef op vrijdag 5 augustus 2022 @ 13:30:


420W verbaast mij wel, omdat huidige voedingen slechts getest zijn tot max 300W + 75W moederbord PCIexpres slot = 375W. Als je geen ATX v3.0 gecertificeerde voeding met de 12VHPWR kabel hebt, dan kan/zal de nieuwe 4080 zich inhouden qua performance... ik vraag me af of de reviews daar rekening mee zullen houden en ook zullen testen met "oudere" (lees: vrijwel alle huidige) voedingen.
waar baseer je dit precies op? Ik heb bijv. een vrij standaard Corsair 850W RMX voeding en die heeft al 5x PCIE 8 pin gpu / 4+4pin cpu aansluitingen. Daarnaast zijn er natuurlijk ook genoeg kaarten nu al verkrijgbaar met 3x8pin aansluitingen.

Wat trouwens ook niet enkel voorbehouden is aan Nvidia kaarten, ook AIB 6800XT / 69x0XT's worden soms uitgerust met 3x 8pin

[ Voor 7% gewijzigd door Dennism op 05-08-2022 14:37 ]


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 13-09 09:39
sunsmountain schreef op vrijdag 5 augustus 2022 @ 13:30:

420W verbaast mij wel, omdat huidige voedingen slechts getest zijn tot max 300W + 75W moederbord PCIexpres slot = 375W. Als je geen ATX v3.0 gecertificeerde voeding met de 12VHPWR kabel hebt, dan kan/zal de nieuwe 4080 zich inhouden qua performance... ik vraag me af of de reviews daar rekening mee zullen houden en ook zullen testen met "oudere" (lees: vrijwel alle huidige) voedingen.
Huh? Dit doet zich toch ook niet voor bij the 3090Ti of alle 3090s van AIBs die boven de 400W gaan? Ik begrijp niet goed waar je dit vandaan haalt.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 14:21
Ik ben vooral benieuwd hoeveel hoeveel de 4080 bijvoorbeeld aan prestatie verlies als je hem 150-300 mhz naar eneden clockt en hoeveel power draw dat gaat schelen.

Mijn 6900xt draait op 2250 mhz en verbruikt 187 watt dat is bijna 40% reductie in verbruik zonder noemnswaardige prestatieverliezen. Heeft iemand dit al met een 3090 or 3090TI geprobeerd ? Dat is namelijk het enige scenario waarin ik upgrade naar een nieuwe gpu.

Al zit ik er wel aan te denken deze winter de pc in de woonkamer te zetten en de undervolt/clock te verwijderen voor de warmte. Scheelt weer gas.

[ Voor 14% gewijzigd door computerjunky op 05-08-2022 16:01 ]


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Dennism schreef op vrijdag 5 augustus 2022 @ 14:33:
[...]


waar baseer je dit precies op? Ik heb bijv. een vrij standaard Corsair 850W RMX voeding en die heeft al 5x PCIE 8 pin gpu / 4+4pin cpu aansluitingen. Daarnaast zijn er natuurlijk ook genoeg kaarten nu al verkrijgbaar met 3x8pin aansluitingen.

Wat trouwens ook niet enkel voorbehouden is aan Nvidia kaarten, ook AIB 6800XT / 69x0XT's worden soms uitgerust met 3x 8pin
Oh, ik begreep dit misschien verkeerd:
https://www.tomshardware....tel-atx-v3-psu-standard/2
SENSE0 & SENSE1 (Required)

Sense 0 and 1 sideband signals, as the ATX spec calls them, provide important information from the PSU to the graphics card. They state how much power the GPU can draw from the PSU, during the power up phase and afterwards.
Ik dacht, als je voeding niet aangeeft dat deze 600W kan leveren, of meer dan 300W, dat je videokaart er dan ook niet van uit gaat / het niet vraagt. Maar de huidige videokaarten vragen natuurlijk al gewoon tot 600W via de 12-pin Nvidia connector (Molex MicroFit 3.0 dual row, 12 circuit). De SENSE pins zijn primair voor de voeding om te weten wat er gevraagd wordt door een systeem, en alleen secondair relevant als je meerdere PCIe kaarten op 1 voeding aansluit (onwaarschijnlijk):
By knowing the number of PCIe cards, the PSU can set its SENSE0 and 1 signals NOT to allow the PCIe cards to draw more power than it can support.
Dan nog maak ik me zorgen, ik zal het opnieuw verwoorden: Ik vermoed dat de piekbelasting (te weten: PSU Power Spike Tolerance, bron = zelfde link zie boven) door de 4080 en 4090 te hoog zullen zijn voor de meeste huidige voedingen, en dat dat performance kan beïnvloeden. Mijn vraag is dan voor de reviewers: met een goede ATX v3 voeding draait een 4080 of 4090 stabiel, maar zullen ze dat vermelden, inclusief de kosten van die nieuwe voeding?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
computerjunky schreef op vrijdag 5 augustus 2022 @ 16:00:
Ik ben vooral benieuwd hoeveel hoeveel de 4080 bijvoorbeeld aan prestatie verlies als je hem 150-300 mhz naar eneden clockt en hoeveel power draw dat gaat schelen.

Mijn 6900xt draait op 2250 mhz en verbruikt 187 watt dat is bijna 40% reductie in verbruik zonder noemnswaardige prestatieverliezen. Heeft iemand dit al met een 3090 or 3090TI geprobeerd ? Dat is namelijk het enige scenario waarin ik upgrade naar een nieuwe gpu.

Al zit ik er wel aan te denken deze winter de pc in de woonkamer te zetten en de undervolt/clock te verwijderen voor de warmte. Scheelt weer gas.
Ik dacht eerst een grapje, maar zeker met de kabinet subsidie op stroom wel het overwegen waard.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 14:21
sunsmountain schreef op vrijdag 5 augustus 2022 @ 18:31:
[...]

Ik dacht eerst een grapje, maar zeker met de kabinet subsidie op stroom wel het overwegen waard.
De pc staat nu in een kamer die niet verwarmd word (verwarm alleen de woonkamer en de slaapkamer tot een bepaald punt) dus eigenlijk gaat de warmte nu 'verloren' als ik de pc in de woonkamer neer zet voor de winter bespaart het dus direct op gas zonder dat ik er verder iets voor doe.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En ik moet nog steeds zien of Nvidia werkelijk zover zal gaan qua verbruik. Zeker voor AD104 vraag ik het me af wat Nvidia hiermee wil bereiken en ook hoe ze het willen doen? Want je moet een dergelijke chip ook nog kunnen koelen.

Tweede is dat ik TSE scores zo nietszeggend blijf vinden omdat de vraag bij Lovelace juist de efficiëntie (zowel perf/watt als perf/ALU van de architectuur is. Daar horen we maar niks over en dat maakt me erg sceptisch naar TSE scores. Het is immers een benchmark die veel minder problemen zal hebben met occupency en geen game.

Ergens zou ik helemaal niet verbaast zijn als het uit gaat komen op de "traditionele" 30% erbij die Nvidia zo vaak doet. Zo zou je de volle AD104 rond RTX3090 niveau krijgen met <300W, AD103 30% over de RTX3090 met >300W en AD102 iets van 60% over de RTX3090Ti voor >400W. Die laatste omdat het verschil tussen AD102 en AD103, toch 70% groot lijkt te zijn en niet circa 30% zoals AD104 naar AD103 lijkt te worden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

Pagina: 1 ... 107 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.