Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En dit is dus waarom we zo wanhopig concurrentie nodig hebben in deze markt...
Kan niet zeggen dat ik verbaast ben, hooguit dat Jensen Huang het zo openlijk zegt.

Maar dat lijkt me duidelijk dan. Dit jaar hooguit alleen AD102 en misschien de top bin van AD103. Weten we ook waarom alleen de RTX3080Ti, RTX3090 en RTX3090 in prijs verlaagd zijn naar respectievelijk €1089, €1199 en €1329. Het lijkt me duidelijk dat AD102 dan ook minstens €1500 gaat kosten. Minstens want ik blijf erbij dat de volledige AD103 best de RTX3090Ti zou kunnen verslaan. Die kan dus ook nog voor een dergelijk bedrag verkocht gaan worden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
DaniëlWW2 schreef op woensdag 7 september 2022 @ 19:22:
[...]


En dit is dus waarom we zo wanhopig concurrentie nodig hebben in deze markt...
Kan niet zeggen dat ik verbaast ben, hooguit dat Jensen Huang het zo openlijk zegt.

Maar dat lijkt me duidelijk dan. Dit jaar hooguit alleen AD102 en misschien de top bin van AD103. Weten we ook waarom alleen de RTX3080Ti, RTX3090 en RTX3090 in prijs verlaagd zijn naar respectievelijk €1089, €1199 en €1329. Het lijkt me duidelijk dat AD102 dan ook minstens €1500 gaat kosten. Minstens want ik blijf erbij dat de volledige AD103 best de RTX4090Ti zou kunnen verslaan. Die kan dus ook nog voor een dergelijk bedrag verkocht gaan worden.
En wellicht nog wat 3060 8gb varianten, 3060 TI GDDR6X varianten en een 3070 (TI?) spinoff met GA102 chip erbij dit jaar.
Alles wat 8gb is nu nog uitbrengen getuigd ook wel van wanhoop, vind ik... hier komt er geen nieuwe 8gb grafische kaart meer in huis. ;)

[ Voor 6% gewijzigd door HugoBoss1985 op 07-09-2022 19:32 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

HugoBoss1985 schreef op woensdag 7 september 2022 @ 19:29:
[...]


En wellicht nog wat 3060 8gb varianten, 3060 TI GDDR6X varianten en een 3070 (TI?) spinoff erbij dit jaar.
Dat denk ik niet. Nieuwe SKU's zou Nvidia moeten valideren en ik zie het punt niet echt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
DaniëlWW2 schreef op woensdag 7 september 2022 @ 19:33:
[...]


Dat denk ik niet. Nieuwe SKU's zou Nvidia moeten valideren en ik zie het punt niet echt.
Ik zie het wel gebeuren, omdat je ook nu ziet dat het lagere segment qua prijs daling al enige tijd redelijk gestagneerd is.
Daar (met een 3060 en 3060ti refresh) kunnen ze dus nog inkomsten maximaliseren totdat RTX 4060 volgend jaar ergens komt.

En w.b.t die 3070 (ti?) met GA102... tja ze moeten iets met al die gpu's (3080) die ze teveel geproduceerd hebben ;)

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:58
DaniëlWW2 schreef op woensdag 7 september 2022 @ 19:22:
[...]


En dit is dus waarom we zo wanhopig concurrentie nodig hebben in deze markt...
Kan niet zeggen dat ik verbaast ben, hooguit dat Jensen Huang het zo openlijk zegt.

Maar dat lijkt me duidelijk dan. Dit jaar hooguit alleen AD102 en misschien de top bin van AD103. Weten we ook waarom alleen de RTX3080Ti, RTX3090 en RTX3090 in prijs verlaagd zijn naar respectievelijk €1089, €1199 en €1329. Het lijkt me duidelijk dat AD102 dan ook minstens €1500 gaat kosten. Minstens want ik blijf erbij dat de volledige AD103 best de RTX4090Ti zou kunnen verslaan. Die kan dus ook nog voor een dergelijk bedrag verkocht gaan worden.
Denk dat je daar de 3090Ti bedoeld?

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op woensdag 7 september 2022 @ 19:22:
[...]

Maar dat lijkt me duidelijk dan. Dit jaar hooguit alleen AD102 en misschien de top bin van AD103. Weten we ook waarom alleen de RTX3080Ti, RTX3090 en RTX3090 in prijs verlaagd zijn naar respectievelijk €1089, €1199 en €1329. Het lijkt me duidelijk dat AD102 dan ook minstens €1500 gaat kosten. Minstens want ik blijf erbij dat de volledige AD103 best de RTX4090Ti zou kunnen verslaan. Die kan dus ook nog voor een dergelijk bedrag verkocht gaan worden.
Effectief is GA102 nu een end-of-life product, waarvan de overschot aan voorraad in de markt gedumpt wordt. Vandaar de prijsdaling.

Maar inderdaad, € 1329 is nog steeds hoog en het lijkt mij onwaarschijnlijk dat AD102 onder de prijs van GA102 zal zitten.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
Dennism schreef op woensdag 7 september 2022 @ 19:38:
[...]


Denk dat je daar de 3090Ti bedoeld?
Hij bedoelde 3090 SLI setjes... sorry voor offtopic; flauw grapje tussendoor :+

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Voor wie het helemaal zelf wil horen. Vanaf hier. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Oud nieuws, dit bevestigt wat we al wisten. RTX 4070 komt niet dit jaar want eerst oude RTX 3080/3090 inventaris verkopen. Er is niks mysterieus aan de hand. RTX 4080 en dan RTX 4090 gaan gewoon uitkomen zoals altijd, anders heeft AMD vrij spel.

Grappig dat Jayz blijft vasthouden aan de gedachte dat de RTX4080 en RTX4090 nìet uit zouden gaan komen dit jaar, maar hij is echt de enige, en wederom fout. Hij geeft gelukkig wel toe dat hij fout zat met zijn vorige video.

RDNA3 gaat denk ik veel interessanter zijn dan Lovelace. De prijzen gaan inderdaad nog verder zakken de komende maanden, maar niet vanwege de nieuwe kaarten. Er komen iets van 15 à 25 miljoen extra kaarten op de markt doordat miners gaan verkopen. Daardoor gaan de prijzen zakken, wat AMD en Nvidia verder ook maar aan "prijs-manipulatie" doen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Tom Petersen gaf in zijn recente interview ook aan dat hij denkt dat Intel op termijn kan helpen om de prijzen te verlagen, wat feitelijk ook een bewering is dat er te hoge winsten worden gemaakt in de GPU-markt door Nvidia.

Op korte termijn kan AMD er hopelijk voor zorgen dat Nvidia wordt gedwongen om de prijzen te verlagen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Paprika
  • Registratie: September 2007
  • Laatst online: 14:59
Ludewig schreef op donderdag 8 september 2022 @ 01:40:
Wat feitelijk ook een bewering is dat er te hoge winsten worden gemaakt in de GPU-markt door Nvidia.

Op korte termijn kan AMD er hopelijk voor zorgen dat Nvidia wordt gedwongen om de prijzen te verlagen.
Als Nvidia te veel winst maakt (kan dat eigenlijk wel als bedrijf, het is immers geen liefdadigheidsinstelling), dan maakt AMD toch ook te veel winst?

Afbeeldingslocatie: https://tpucdn.com/review/asrock-radeon-rx-6950-xt-oc-formula/images/performance-per-dollar_3840-2160.png

Beide partijen hebben hier geen gekke uitschieters en dit is nog van voor de laatste prijswijzigingen. Ook bij AMD zie ik een 8800GT-achtige kaart niet gebeuren. Waarom zouden ze ook?

[ Voor 5% gewijzigd door Paprika op 08-09-2022 10:36 ]


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Paprika schreef op donderdag 8 september 2022 @ 10:34:
[...]
Als Nvidia te veel winst maakt (kan dat eigenlijk wel als bedrijf, het is immers geen liefdadigheidsinstelling), dan maakt AMD toch ook te veel winst?
Vanuit het perspectief van de aandeelhouder is er natuurlijk nooit genoeg winstmarge, maar in een goed functionerende markt is dit wel beperkt, want anders is er te weinig concurrentie en betaalt de consument meer dan nodig is om de fabrikant een goed belegde boterham te bezorgen.

AMD kiest er overduidelijk voor om relatief veel te vragen voor hun kaarten, waardoor ze op een laag marktaandeel blijven steken. Als beide fabrikanten hun kaarten zouden beprijzen zodat ze 50% van de markt zouden hebben, dan zou het prijsverschil tussen AMD en Nvidia groter zijn dan nu.

Waar AMD echter mee zit is dat ze voor een deel van de markt überhaupt geen optie zijn of slechts als een optie gezien worden als ze extreem laag beprijzen. Daardoor is een echte aanval op het marktaandeel van Nvidia ook niet mogelijk en is het logisch dat ze dus kiezen voor een lekkere marge. In de afgelopen twee jaar konden ze sowieso ook niet meer produceren, dus was een hoger marktaandeel ook niet mogelijk.

Ik hoop dat AMD met de komende generatie een product neerzet met minder zwakke punten en wat echt sterke punten, waardoor er pas echt goede concurrentie komt. Tom Petersen van Intel denkt dat zij ook een echte aanval kunnen gaan plaatsen in de toekomst op de marktleider en dat de consument daarvan profiteert.
<Techpower up grafiek>
Het zwakke punt van de TechPowerUp lijsten is dat ze de kaarten vergelijken op 4k, terwijl een kleine minderheid van de gamers op 4k gamed en veel van de kaarten niet bedoelt zijn voor die resolutie. We zien ook dat Nvidia relatief goed presteert op die resolutie (of AMD relatief slecht, het is maar hoe je het bekijkt). Daardoor vertekent de vergelijking op die resolutie nogal. Daarnaast vraag ik me af waar ze die prijzen vandaan halen.

Als ik naar de Hardware Unboxed FPS per $ vergelijking kijk, dan zijn de Nvidia kaarten eigenlijk structureel duurder. De duurste helft van de grafiek heeft bijna alleen Nvidia kaarten en de onderkant grotendeels AMD kaarten:

YouTube: Best Value GPUs Right Now: Radeon vs GeForce Cost Per Frame Update

We zien wel dat AMD relatief slechte prijzen heeft in de EU, dus hier komen de Nvidia kaarten iets beter uit, al is Nvidia hier ook gemiddeld duurder per FPS:

YouTube: Best Value GPUs Right Now: Radeon vs GeForce Cost Per Frame Update

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
https://videocardz.com/ne...points-in-timespy-extreme

Nog meer RTX 4090 leaks/geruchten: temperatuur, power draw en TimeSpy Extreme score.
Ik vind het erg leuk dat het met een 12400f getest is ;)

Volgens de comments 80% meer performance dan een 3080ti voor dezelfde power draw.
Dus mensen: weet wat je koopt (of beter koop je het niet) als je nu nog voor een 3080ti/3090/3090ti gaat.

Acties:
  • +1 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
HugoBoss1985 schreef op vrijdag 9 september 2022 @ 09:41:
https://videocardz.com/ne...points-in-timespy-extreme

Nog meer RTX 4090 leaks/geruchten: temperatuur, power draw en TimeSpy Extreme score.
Ik vind het erg leuk dat het met een 12400f getest is ;)

Volgens de comments 80% meer performance dan een 3080ti voor dezelfde power draw.
Dus mensen: weet wat je koopt (of beter koop je het niet) als je nu nog voor een 3080ti/3090/3090ti gaat.
3ghz bij 450W, dat is beter dan ik had verwacht. Volgens mij is de Amepre architectuur dan ook veranderd anders snap ik niet hoe meer cores en een veel hogere clock het zelfde verbruik kam hebben als een RTX 3080 Ti.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

HugoBoss1985 schreef op vrijdag 9 september 2022 @ 09:41:
https://videocardz.com/ne...points-in-timespy-extreme

Nog meer RTX 4090 leaks/geruchten: temperatuur, power draw en TimeSpy Extreme score.
Ik vind het erg leuk dat het met een 12400f getest is ;)

Volgens de comments 80% meer performance dan een 3080ti voor dezelfde power draw.
Dus mensen: weet wat je koopt (of beter koop je het niet) als je nu nog voor een 3080ti/3090/3090ti gaat.
Als ze toch ook naar de 3GHz gaan, dan gaat het interessant worden in halo SKU land. Uiteraard met de aantekening dat het TSE is, synthetische benchmark waar je gewoon weet dat er flink wat werk in optimalisatie zit.

Maar dit is 100% zeker AD102 en zou bijna volledige chip moeten zijn. 450W is minder dramatisch dan misschien verwacht, maar alsnog vrij extreem. Prijs? Tja vergeet het maar. :P


edit: bedacht me opeens dat deze configuratie met 3GHz al een tijd terug voorbij was gekomen.

En dit ligt ook meer in de lijn der verwachtingen wat ik in juli al zei. We kijken hier naar iets meer dan 50% groter met iets van 50% extra clock speed over de RTX3090Ti. Resultaat is dat deze 98TLOPS chip, net niet 80% sneller in een synthetische benchmark dan de 43TFLOPS RTX3090Ti. Ergo, dit lijkt heel erg op "Ampere next" en niet op iets fundamenteel nieuws. Het schaalt immers redelijk op. In de praktijk kan het nog iets minder zijn, maar als het alsnog 70% over de RTX3090Ti in gaming is, tja dat is niet slecht. Probleem is en blijft wat gaat Navi 31 nu precies doen.

[ Voor 27% gewijzigd door DaniëlWW2 op 09-09-2022 11:09 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
ItalianStyle schreef op vrijdag 9 september 2022 @ 10:29:
[...]
3ghz bij 450W, dat is beter dan ik had verwacht. Volgens mij is de Ampere architectuur dan ook veranderd anders snap ik niet hoe meer cores en een veel hogere clock het zelfde verbruik kan hebben als een RTX 3080 Ti.
De TDP van de 3080 Ti is 350 watt, dus het is helemaal niet hetzelfde verbruik! Het is bijna een derde meer. Of is het een typo en doelde je op de 3090 Ti?

De 3090 Ti is extreem overgeklokt, met een derde hogere TDP dan de 3090, voor iets van 7% snelheidswinst. TSMC 5/N4 lijkt hoge kloksnelheden mogelijk te maken bij relatief lage voltages, dus het is prima mogelijk dat de 4090 ondanks een hogere kloksnelheid, relatief efficient werkt. En sowieso zijn extra cores efficiënter dan extreem overklokken zoals bij de 3090 Ti wordt gedaan.

Door het betere productieproces kan men sowieso meer cores kwijt bij hetzelfde verbruik.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

_O- :P
Dit account was gewoon een trol die succesvol mensen heeft lopen bespelen met onzininformatie.
Dus er mag een streep door heel wat onzin over de "RTX4060/Ti, 2x perf etc.

[Twitter: https://twitter.com/QbitLeaks/status/1568074402603962371]

[ Voor 13% gewijzigd door DaniëlWW2 op 09-09-2022 13:08 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
RTX 4090 sku's duiken op, met torenhoge placeholder-prijzen:

nieuws: Eerste vermeldingen Nvidia GeForce RTX 4090-gpu's verschijnen bij web...

March of the Eagles


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
DaniëlWW2 schreef op vrijdag 9 september 2022 @ 10:47:
[...]


Als ze toch ook naar de 3GHz gaan, dan gaat het interessant worden in halo SKU land. Uiteraard met de aantekening dat het TSE is, synthetische benchmark waar je gewoon weet dat er flink wat werk in optimalisatie zit.

Maar dit is 100% zeker AD102 en zou bijna volledige chip moeten zijn. 450W is minder dramatisch dan misschien verwacht, maar alsnog vrij extreem. Prijs? Tja vergeet het maar. :P


edit: bedacht me opeens dat deze configuratie met 3GHz al een tijd terug voorbij was gekomen.
[Twitter]
En dit ligt ook meer in de lijn der verwachtingen wat ik in juli al zei. We kijken hier naar iets meer dan 50% groter met iets van 50% extra clock speed over de RTX3090Ti. Resultaat is dat deze 98TLOPS chip, net niet 80% sneller in een synthetische benchmark dan de 43TFLOPS RTX3090Ti. Ergo, dit lijkt heel erg op "Ampere next" en niet op iets fundamenteel nieuws. Het schaalt immers redelijk op. In de praktijk kan het nog iets minder zijn, maar als het alsnog 70% over de RTX3090Ti in gaming is, tja dat is niet slecht. Probleem is en blijft wat gaat Navi 31 nu precies doen.
Op zich weten we wat Navi31 gaat doen qua oppervlaktes en single 1 GCD met meerdere MCD's. Maar hoe dat precies op elkaar aangesloten is, en hoe het presteert, zijn nog steeds hele grote vraagtekens.

Lovelace lijkt inderdaad meer copy paste te zijn van Ampere.

Qua prestaties zou Navi31 ook in de buurt komen van AD102 met een een TSE score van 19k:
https://gathering.tweakers.net/forum/view_message/72483438

Net als de 4090 in de geruchten niet de volledige die (128 SMs ipv de volle 144 SMs),
bij AMD 7900XT: 42 van de 48 WGPs (168 van de 192 oude CUs).

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • PP_Sound
  • Registratie: Januari 2021
  • Niet online
4090 zal qua prijs rond de 1600 dollar excl btw zitten verwacht ik, misschien wat hoger vanwege wereldwijde inflatie.

[ Voor 5% gewijzigd door PP_Sound op 10-09-2022 01:27 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op zaterdag 10 september 2022 @ 00:54:
[...]


Op zich weten we wat Navi31 gaat doen qua oppervlaktes en single 1 GCD met meerdere MCD's. Maar hoe dat precies op elkaar aangesloten is, en hoe het presteert, zijn nog steeds hele grote vraagtekens.

Lovelace lijkt inderdaad meer copy paste te zijn van Ampere.

Qua prestaties zou Navi31 ook in de buurt komen van AD102 met een een TSE score van 19k:
https://gathering.tweakers.net/forum/view_message/72483438

Net als de 4090 in de geruchten niet de volledige die (128 SMs ipv de volle 144 SMs),
bij AMD 7900XT: 42 van de 48 WGPs (168 van de 192 oude CUs).
Het probleem met Navi 31 is dat het zo'n gigantische sprong zou zijn.
Als je Navi 10 naar Navi 21 neemt, dan heb je ongeveer een verdubbeling van ALU's met een verdubbeling van framerates. Er zit alleen wel iets van 300MHz a 400MHz aan clock speed bij. Dus circa 20% extra clock speed is nodig om dit te bereiken.

Nu kijken we waarschijnlijk van 5120 naar 12288 ALU's. 140% extra ALU's is eigenlijk ongehoord. De 70% van GA102 naar AD102 is zelfs al tijden niet voorgekomen. Hierom is er ook geen referentiekader hoe dit kan gaat uitvallen. Daarnaast lijkt AMD ook nog eens zoveel te veranderen voor RDNA3. Verliest Navi 31 niet al te veel occupency, tja dan gaat het heel lastig worden voor AD102. Maar is het verlies toch wel fors, dan moet AMD waarschijnlijk ook een sprong in clock speed hebben.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
DaniëlWW2 schreef op woensdag 7 september 2022 @ 19:33:
[...]


Dat denk ik niet. Nieuwe SKU's zou Nvidia moeten valideren en ik zie het punt niet echt.
https://videocardz.com/ne...-to-launch-end-of-october

Het lijkt toch echt te gaan gebeuren... wat een puinhoop.
Zal wel in de pijplijn hebben gezeten om ARC te dwarsbomen?

Ik zie nu echt geen enkele nut van deze (naar mijn mening) vage/onzin videokaarten.

3060ti met gddr6x gaat bijna presteren als een 3070 en net zoveel stroom verbruiken?

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

HugoBoss1985 schreef op zondag 11 september 2022 @ 14:04:
[...]


https://videocardz.com/ne...-to-launch-end-of-october

Het lijkt toch echt te gaan gebeuren... wat een puinhoop.
Zal wel in de pijplijn hebben gezeten om ARC te dwarsbomen?

Ik zie nu echt geen enkele nut van deze (naar mijn mening) vage/onzin videokaarten.

3060ti met gddr6x gaat bijna presteren als een 3070 en net zoveel stroom verbruiken?
Ik zag het ook ja.
Mijn eerste ingeving is dat Nvidia op veel, veel meer AD104 chips zit dan ik misschien had durven denken. Maar ik kan deze twee nog begrijpen. Die nieuwe RTX3060Ti lijkt gebaseerd te worden op een RTX3070Ti PCB met de reguliere RTX3060Ti chip. En de RTX3060 lijkt alleen maar twee VRAM chips weglaten.

offtopic:
Ik betwijfel alleen of het iets met Arc te maken heeft of zelfs RDNA2. Intel heeft overduidelijk zo haar eigen problemen en AMD lijkt al een halfjaar bezig te zijn om potentiële klanten als het ware "uit te roken" door eens in de zoveel tijd de prijzen weer wat te laten zakken en kijken hoeveel ze nu verkopen. Ook heeft AMD het voordeel dat ze maanden geleden al besloten kunnen hebben om hun RDNA2 productie te reduceren of te staken en iets anders te gaan maken zoals Zen 4 I/O chiplets. Die luxe heeft Nvidia niet omdat die hun wafers ook moeten afnemen met een product en veel minder beweegruimte hebben.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:24

CMT

Het is dezelfde kant opgegaan als de absurde overvloed aan varianten bij de moederborden. Nu 6 varianten voor een 3060 8)7. De Ti had nog wel bestaansrecht als een soort revisie, maar de rest..
Hoe moet jan alleman hier nou wijs uit worden.
Ik mis de tijd dat er gewoon 3 duidelijke segmenten bediend werden met: low-, mid- & high-tier.

[ Voor 3% gewijzigd door CMT op 11-09-2022 15:18 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
Ik ben benieuwd of (en zo ja, wat) ze met de GA102 chips gaan doen en het gerucht dat deze voor de 3070ti (revisie) ingezet zouden gaan worden.

Ik moet gelijk denken aan het unlocken van sommige kaarten, wat je vroeger kon doen.
Maar daar zal Nvidia wel een hardware block voor ingebouwd hebben.

Kijk een 3060ti of 3070ti GA102 met 10-12gb (welke variant dan ook) zou echt een leuk kaartje zijn.
Want we zien al dat de 8gb een bottleneck kan vormen.
Dat weerhoudt mij er ook echt van (en de prijs/prestatie verhouding) om op dit moment wéér een 8gb kaartje te kopen.
Maar nee, in plaats het leuk en interessant te maken voor de consument blijven ze met deze "refresh" waarschijnlijk zitten op 8gb voor de 3070ti.

@DaniëlWW2 het zal inderdaad eerder met de contracten voor chipafname te maken hebben :P

[ Voor 9% gewijzigd door HugoBoss1985 op 11-09-2022 15:32 ]


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
HugoBoss1985 schreef op zondag 11 september 2022 @ 14:04:
[...]


https://videocardz.com/ne...-to-launch-end-of-october

Het lijkt toch echt te gaan gebeuren... wat een puinhoop.
Zal wel in de pijplijn hebben gezeten om ARC te dwarsbomen?

Ik zie nu echt geen enkele nut van deze (naar mijn mening) vage/onzin videokaarten.

3060ti met gddr6x gaat bijna presteren als een 3070 en net zoveel stroom verbruiken?
Ja, vergeet de 4070 maar dit jaar :(

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • jaaoie17
  • Registratie: Augustus 2000
  • Laatst online: 00:24
*knip* offtopic

[ Voor 93% gewijzigd door br00ky op 11-09-2022 22:52 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
CMT schreef op zondag 11 september 2022 @ 15:14:
Ik mis de tijd dat er gewoon 3 duidelijke segmenten bediend werden met: low-, mid- & high-tier.
Dat is wel heel lang terug :+

Met de stofzuiger generatie had je al 4 5600 varianten, 7 of 8 5700 varianten, 5 5900 varianten...en dan had je nog de ongein als 5750/5950. Generatie later was niets beter, met de "6800" die de halve product stack in beslag nam, ook al zaten er 3 compleet verschillende pipeline configuraties in. En het is niet alsof dat later veel beter werd. G80 en G92 vormden waarschijnlijk het toppunt, maar de GTX 460 had je bijvoorbeeld ook in 4 varianten. 6 versies van de 1060? :P

Ze willen de beschadigde chips kwijt en dan krijg je dit :)

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
HugoBoss1985 schreef op zondag 11 september 2022 @ 14:04:
[...]
Zal wel in de pijplijn hebben gezeten om ARC te dwarsbomen?

Ik zie nu echt geen enkele nut van deze (naar mijn mening) vage/onzin videokaarten.
Ik zie geen reden waarom Nvidia de Arc kaarten moet dwarsbomen. Daar heeft Intel echt geen hulp bij nodig.

Ik denk dat de reden voor de 3060 Ti met GDDR6X is dat Nvidia al een flinke order voor dit geheugen hadden geplaatst, met een snelheid die lager is dan wat op de 4080 komt. Dus dat moeten ze kwijt. Nu zouden ze dat natuurlijk op de 4070 kunnen zetten, maar dan kunnen ze ook niet meer terug wanneer de order is afgerond. Dus dan zouden ze nog meer moeten bestellen van dit dure geheugen, en worden de productiekosten van de 4070 permanent hoger.

Door het ook niet op de 3070 te zetten, voorkomen ze dat mensen de specs van zo'n nieuwe 3070 tegenover de 4070 gaan zetten en dan gaan klagen over de teruggang. Dus op basis van dit gedrag denk ik dat we kunnen concluderen dat de 4070 geen GDDR6X gaat krijgen, anders is het gedrag van Nvidia niet logisch.

Ik denk dat de reden van de 8GB voor de 3060 dan weer is dat ze de prijs van deze kaarten willen verlagen, om ze naast de 4000 serie te verkopen, tegen zulke prijzen dat er voldoende vraag is en mensen niet massaal wachten op de 4060 of een ex-mining kaart gaan kopen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 14-09 07:40

SG

SG surft naar info hardewaren

Ludewig schreef op vrijdag 9 september 2022 @ 12:33:
[...]


De TDP van de 3080 Ti is 350 watt, dus het is helemaal niet hetzelfde verbruik! Het is bijna een derde meer. Of is het een typo en doelde je op de 3090 Ti?

De 3090 Ti is extreem overgeklokt, met een derde hogere TDP dan de 3090, voor iets van 7% snelheidswinst. TSMC 5/N4 lijkt hoge kloksnelheden mogelijk te maken bij relatief lage voltages, dus het is prima mogelijk dat de 4090 ondanks een hogere kloksnelheid, relatief efficient werkt. En sowieso zijn extra cores efficiënter dan extreem overklokken zoals bij de 3090 Ti wordt gedaan.

Door het betere productieproces kan men sowieso meer cores kwijt bij hetzelfde verbruik.
bij elke dieshrink en gelijke diesize.
Het verhogen van idioot hoge verbuik is door er voor de performance ceiling te gaan.
Voor dat vermogen ga je dan voor maximum performance.
Maar next gens zijn ook stuk zuiniger als je performance constant houd tov vorige gen,minder vermogen nodig.
Zijn zuiniger als vermogen constant houd tov vorige gen krijg je meer performance.

En daarmee krijg je meer dan vorige gen. Consoles zijn daar voorbeeld van hun formfactor is target van max 300watt 1st release en dan zie je dat na console gen cycle performance flink omhoog gegaan is en mid cycle dieshrinks binnen die zelfde performance de slimline mogelijk zijn.

Voor casual gamer kan dan met midrange NUC igpu de veel oudere games redelijk goed spelen.
Voor die waar de softwarw eisen constant blijven zoals je hebt niet meer dan office bak eisen.
Zijn we van die oer 250wat beige saaie desktop naar intel / Dell Nuc gegaan met fractie van dat vermogen .

Als gewoon 1080P blijft gamen niet bij die esport scene hoort. Niet je kd ratio met geld over debalk maximale hardware voordeel eruit moet halen je wacht totdat VR betaalbaar wordt met redelijk goede experience zo ver zijn we met next gen nog niet. Maar misschien met RTX 70x00 of rdna6

Dan kan je dus makkelijk onder de 500wat PC blijven met 4060 of navi33 en ook genieten van gameplay van 99% van de games. Op ruk ports na en of games die eigenlijk nv tech demo zijn.

Er is hier uiteraard oververtegenwoordigde volk dat uiteraard net als in de auto branch gaan voor Hummer de top sporty varianten de sportwagen supper en hypercars.
En in die branch is er tweaken tunen en modden ook gangbaar.

Maar voor de wereld zal PC meer downsizing krijgen PC kunnen nu flink stuk kleiner zijn.
Er zijn meer ago/107/C1 up! Arosa Ka en in 2 tiers daar boven ook veel meer met standaard motor dan de top tier.
Overall kunnen PC in de praktijk zuiniger zijn als 1mil wereld wijd 4070 en hoger aanschaft maar 250mil 4060 en lager en nog meer igpu only.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Werelds schreef op zondag 11 september 2022 @ 17:44:
[...]

Dat is wel heel lang terug :+

Met de stofzuiger generatie had je al 4 5600 varianten, 7 of 8 5700 varianten, 5 5900 varianten...en dan had je nog de ongein als 5750/5950. Generatie later was niets beter, met de "6800" die de halve product stack in beslag nam, ook al zaten er 3 compleet verschillende pipeline configuraties in. En het is niet alsof dat later veel beter werd. G80 en G92 vormden waarschijnlijk het toppunt, maar de GTX 460 had je bijvoorbeeld ook in 4 varianten. 6 versies van de 1060? :P

Ze willen de beschadigde chips kwijt en dan krijg je dit :)
Stofzuiger Nvidia generatie, dan moet je er wel even FX 5000 bij zetten anders denken de Zoomers dat je de Radeon RX bedoelt :P

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sunsmountain schreef op maandag 12 september 2022 @ 13:40:
[...]


Stofzuiger Nvidia generatie, dan moet je er wel even FX 5000 bij zetten anders denken de Zoomers dat je de Radeon RX bedoelt :P
Mag hopen van niet, zelfs de meest lawaaiige kaarten van de afgelopen 15 jaar zijn muisstil vergeleken met de Nvidia stofzuiger. Mijn échte stofzuiger is stiller dan die krengen waren, je had het dan echt over 70+ dB(A) ofzo. Klein ventilatortje op duizenden toeren in een windtunnel...de luchtverplaatsing was al luid, maar de hoge frequentie was pas echt irritant.

Die generatie is de enige generatie die met recht stofzuiger genoemd mag worden, er is geen Radeon die daar ook maar bij in de buurt komt :p

Acties:
  • +6 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Iemand in de Zotac fabriek is stout geweest:

Afbeeldingslocatie: https://tweakers.net/i/1HA7Gf0EEIjc-CrubqEFUOHo-pA=/800x/filters:strip_icc():strip_exif()/f/image/h71DYIPeAo9WCIeYrNqqkln7.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/KVlW5C6U3zWZ4aKEBka1ywO_zMw=/x800/filters:strip_icc():strip_exif()/f/image/1rd3RysFeeSqfnF4oVkVA6Ig.jpg?f=fotoalbum_large

Er lijkt PCIe 4 op de verpakking te staan.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Moet trouwens wel lachen om de slogan: "Love Gaming, Power the Win"

Heel veel power inderdaad.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

PCIe 4.0 wisten we al.
Maar ziet iemand toevallig een TDP? :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op maandag 12 september 2022 @ 15:15:
PCIe 4.0 wisten we al.
Maar ziet iemand toevallig een TDP? :P
Dat zal wel in het blok helemaal beneden staan, maar dat is totaal onleesbaar. Kan iemand even DLSS aanzetten en het upscalen? :P

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
DaniëlWW2 schreef op maandag 12 september 2022 @ 15:15:
PCIe 4.0 wisten we al.
Maar ziet iemand toevallig een TDP? :P
Voor mij is dat nieuw en niet wat ik verwacht had.
Wellicht offtopic maar dan wordt AMD dus de eerste met Pci-e 5.0 support?

Wat vinden jullie van de koeler?
Ik vind het wel wat hebben en een "verfrissend" design.

[ Voor 14% gewijzigd door HugoBoss1985 op 12-09-2022 15:21 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

HugoBoss1985 schreef op maandag 12 september 2022 @ 15:19:
[...]


Voor mij is dat nieuw en niet wat ik verwacht had.
Wellicht offtopic maar dan wordt AMD dus de eerste met Pci-e 5.0 support?
AMD is meestal de eerste met nieuwe PCEe generaties. Was niet anders voor 3.0 en 4.0 :P
Wat vinden jullie van de koeler?
Ik vind het wel wat hebben en een "verfrissend" design.
Ik wil vooral weten of die nu echt vier slots is en zo ja of dat ook echt nodig is want 450W of meer...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

Ludewig schreef op maandag 12 september 2022 @ 15:05:
Iemand in de Zotac fabriek is stout geweest:

[Afbeelding]

[Afbeelding]

Er lijkt PCIe 4 op de verpakking te staan.
Jammer van de jpg compressie artifacts. Het is gewoon onleesbaar, dacht het nog wat te kunnen verbetere in fotosoep maar helaas.

Edit:
Afbeeldingslocatie: https://tweakers.net/i/bpXun0xie-niuVVF-ta6JmUSYGU=/x800/filters:strip_exif()/f/image/DyPkVdYk4LyC5EJPbMkaNKdq.png?f=fotoalbum_large

Niet heel veel beter, motion blur eruit gehaald en wat scherper kunnen maken.

[ Voor 21% gewijzigd door Sp3ci3s8472 op 12-09-2022 15:50 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
HugoBoss1985 schreef op maandag 12 september 2022 @ 15:19:
[...]
Wellicht offtopic maar dan wordt AMD dus de eerste met Pci-e 5.0 support?
Inderdaad. Ik ben vooral benieuwd wat AMD heeft. Op zich lijkt 4.0 ruim voldoende voor de komende generatie, dus is het geen slechte keus om hierop te bezuinigen.
Wat vinden jullie van de koeler?
Ik vind het wel wat hebben en een "verfrissend" design.
Prima design voor mijn dichte kast. Ik ben zelf meer een fan van de professionelere designs zoals de FE (maar nogmaals, dichte kast, dus ik zie hem toch niet).

Ik vindt dit een beetje een grijze muis.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

@Ludewig
Heb je misschien de bron van je vorige post? Wellicht is er iets beter waarmee ik wel wat kan reconstrueren.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
Sp3ci3s8472 schreef op maandag 12 september 2022 @ 15:52:
@Ludewig
Heb je misschien de bron van je vorige post? Wellicht is er iets beter waarmee ik wel wat kan reconstrueren.
https://videocardz.com/ne...hics-card-has-been-leaked

[ Voor 12% gewijzigd door HugoBoss1985 op 12-09-2022 15:54 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op maandag 12 september 2022 @ 15:52:
@Ludewig
Heb je misschien de bron van je vorige post? Wellicht is er iets beter waarmee ik wel wat kan reconstrueren.
https://videocardz.com/ne...hics-card-has-been-leaked

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

Helaas, niks beters :(.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Daar was ik al bang voor. Ik wil eigenlijk ook vooral de tekst op die witte onderkant van de doos lezen. Want daar zou de technische informatie op moeten staan. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op maandag 12 september 2022 @ 15:59:
[...]


Daar was ik al bang voor. Ik wil eigenlijk ook vooral de tekst op die witte onderkant van de doos lezen. Want daar zou de technische informatie op moeten staan. :)
Dacht ik al, maar dat is helemaal niet te doen. Misschien met ML wel, maar niet met simpel photoshop dus. Ik hoopte door het weghalen van de motionblur iets terug te krijgen maar dat is niet genoeg.

Dus moeten we maar wachten :+.

Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 10:09
Sp3ci3s8472 schreef op maandag 12 september 2022 @ 15:30:
Jammer van de jpg compressie artifacts. Het is gewoon onleesbaar, dacht het nog wat te kunnen verbetere in fotosoep maar helaas.
Wel te zien is dat hij Firestorm én Icestorm heeft, dus qua elemental type coverage is deze kaart er helemaal klaar voor. 8)7

...jammer dat dan weer niks te maken heeft met de specs die er wel toe doen die in de kleine lettertjes staan. Ah, marketing...

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Sp3ci3s8472 schreef op maandag 12 september 2022 @ 15:52:
@Ludewig
Heb je misschien de bron van je vorige post? Wellicht is er iets beter waarmee ik wel wat kan reconstrueren.
Ik heb de plaatjes van een chinees forum gehaald dat volgens mij de bron is. Dus beter wordt het niet.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Kleine aanvulling op mijn eerdere post:
https://gathering.tweakers.net/forum/view_message/72656634

https://www.forbes.com/si...-options-after-the-merge/
(Unlike Bitcoin, Ethereum is still mostly mined with GPUs, and only 10% or so of Ethereum’s compute power comes from ASICs, the same specialized chips that BTC miners use)
Met 90% GPUs en huidige hash rates, gaat het nog steeds om potentieel 22,5 miljoen GPUs die op de markt gaan komen, vanaf a.s. woensdag (ETH merge datum, bij benadering).

Ik sta bij de kust en zie een GPU tsunami op ons afkomen. De verlossing is nabij :)

Afbeeldingslocatie: https://upload.wikimedia.org/wikipedia/commons/a/a5/Tsunami_by_hokusai_19th_century.jpg

[ Voor 4% gewijzigd door sunsmountain op 12-09-2022 19:09 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Geitenslachter
  • Registratie: Mei 2017
  • Laatst online: 29-08 11:36
Ik ben ook heel benieuwd wat die PoS voor gevolg gaat hebben voor de V&A site. Zou toch heel mooi zijn als er uitermate betaalbare 3070s en 3080s op de markt komen!

Ryzen 7 5800X | Asus TUF RTX 3080 Ti | 32GB G.Skill Ram 3600 MHz |


Acties:
  • 0 Henk 'm!

  • PP_Sound
  • Registratie: Januari 2021
  • Niet online
Gaat niet zoveel invloed hebben in NL, miners hier zijn al eerder afgehaakt.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
PP_Sound schreef op dinsdag 13 september 2022 @ 01:42:
Gaat niet zoveel invloed hebben in NL, miners hier zijn al eerder afgehaakt.
Ik verwacht wel dat er schepen vanuit China en vrachtwagens vanuit de Balkan deze kant opkomen met mining-videokaarten. De prijzen zullen dan wel hoger liggen dan bij de bron vanwege de extra tussenschakels.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
Ludewig schreef op dinsdag 13 september 2022 @ 09:36:
[...]


Ik verwacht wel dat er schepen vanuit China en vrachtwagens vanuit de Balkan deze kant opkomen met mining-videokaarten. De prijzen zullen dan wel hoger liggen dan bij de bron vanwege de extra tussenschakels.
Maar wie gaan die kaarten hier dan verkopen?
Zien we die hier dan op V&A terug of... als refurbished bij winkels?

Of bedoel je gloednieuwe mining kaarten?

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Refurbished vermoed ik, uit China, Frankrijk, Rusland en de VS.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Het zou me ook niet verbazen als ze als grote partij voor dumpprijzen aangeboden worden en dan de tussenhandel ingaan, die ze weer via marktplaats verkoopt. Sowieso bestaat een groot deel van marktplaats verkopers uit bedrijven (is trouwens een plugin voor om die eruit te filteren).

Ik verwacht niet zoveel verkoop via Tweakers, want dit is echt meer een website voor Nederlandse particulieren. Ik heb niet het idee dat er echt veel tussenhandel van deze site gebruik maakt. Die lijken liever naar marktplaats te gaan.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:58
Ik vraag me sowieso wel af of Nederland zo interessant is als markt, en of die kaarten, als ze al naar West Europa komen, niet grotendeels naar andere markten toe gaan.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dat hangt er natuurlijk helemaal van af hoe groot de vraag is en wat de kosten zijn om de kaarten hier te verkopen. Uiteindelijk hebben wij hier relatief hoge inkomens voor een groot deel van de bevolking. Als ze een 3080 hier voor 300-400 euro kunnen verkopen, maar slechts voor 100-150 euro als ze die kaarten allemaal lokaal verkopen, dan zouden wel gek zijn om de kaarten niet hierheen te sturen.

Maar ik verwacht wel dat de prijzen hier niet het laagste zullen worden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En AD102 zou 75+ miljard transistoren zijn. Ter vergelijking GA102 is 28,3 miljard...
Tja Nvidia kan maar beter absoluut ongekende RT hardware brengen als dit klopt. Want als dit uiteindelijk allemaal in "dark transistors" alsmede L2 cache gaat zitten, dan is dat een belachelijke toename met een gigantische prijsverhoging voor waarschijnlijk te weinig echte prestatiewinst...



Nee, ik ben absoluut niet onder de indruk van die getoonde misplaatste trots. Dit is niks om trots op te zijn.

edit: Als ik er nog eens over terugdenk dan begrijp ik ook niet hoe Nvidia dit precies moet gaan doen. Hopper GH100 is een 814 mm2 chip met 80 miljard transistoren. Dat is alleen een laag geclockte chip met extreme dichtheid. Ik zie niet hoe AD102 dit moet gaan bereiken...

[ Voor 21% gewijzigd door DaniëlWW2 op 13-09-2022 22:57 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
Waterkoeling :+

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 14:21
Sp3ci3s8472 schreef op maandag 12 september 2022 @ 15:30:
[...]


Jammer van de jpg compressie artifacts. Het is gewoon onleesbaar, dacht het nog wat te kunnen verbetere in fotosoep maar helaas.

Edit:
[Afbeelding]

Niet heel veel beter, motion blur eruit gehaald en wat scherper kunnen maken.
Gooi het even door DLSS heen voor wat upscaling. :+

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Gigabyte ditmaal. En we hebben 24GB aan VRAM.
Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/09/RTX4090-GAMING-768x615.jpg
Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/09/RTX4090-GAMING2-768x432.jpg

https://videocardz.com/ne...cs-card-has-been-pictured

Verder lijkt dit heel erg op deze:
pricewatch: Gigabyte GeForce RTX 3090 Ti Gaming OC 24G
Dus die 450W lijkt me ook wel duidelijk nu.

[ Voor 8% gewijzigd door DaniëlWW2 op 13-09-2022 22:08 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op dinsdag 13 september 2022 @ 22:05:
Gigabyte ditmaal. En we hebben 24GB aan VRAM.
Weer een grote verrassing (not).
Dus die 450W lijkt me ook wel duidelijk nu.
Dat had ik ook al verwacht. Tot de 450 watt kun je ook nog uit met een oude voeding met een verloopstuk. Die heb je volgens mij alleen met 3 x 8-pin connectors, waarbij elke 8 pin tot 150 watt aan kan. Dus 3 x 150 = 450 watt.

Daarboven moet je volgens mij native 12VHPWR hebben (dus niet met verloopstuk) en er zijn nog niet veel van die voedingen. Bovendien gaan ze dan vast veel klachten krijgen van mensen die net voor de 3090 (Ti) hun PSU hebben geupgrade voor aardig wat geld en die dan weer zouden moeten upgraden.

Ik verwacht dan dat de 4090 Ti pas komt wanneer die voedingen redelijk goed beschikbaar zijn, en dat die kaart dan tot 600 watt gaat.

Overigens heeft PCI SIG gewaarschuwd dat ze bij de verloopstukken voor de 12VHPWR soms gevaarlijke situaties zien, dus als iemand hier naar de 4090 gaat upgraden, zou ik goed in de gaten houden of hier klachten over komen:

https://www.techspot.com/...-can-get-dangerously.html

Een brandmelder installeren is ook een goed idee :P

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +4 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:24

CMT

De 8-pin (eigenlijk 6-pin, want 3x 12V) connector kan veel meer aan hoor ;). Dat ze een maximum voor de connector gespecificeerd hebben is iets anders (en daarin zijn ze redelijk conservatief in geweest omwille van maximale veiligheid).

Laat je ook niet wijs maken door die onzinnige 12VHPWR stekker.
Mede dankzij de lobby van Nvidia wordt dat er nu doorheen gedrukt, terwijl het helemaal niet nodig is.
Alleen Nvidia had het perse nodig vanwege de minipini PCB.
Het zijn nog steeds gewoon 6x 12V pinnen en 6x return / 'ground' pinnen.
Maar nu kan er magisch opeens wel 600W (8.33A per pin) doorheen, terwijl de afstand tussen de pinnen kleiner is en de kabels dus ook een kleinere dwarsdoorsnede hebben om nog te passen..hmhm.

Een goede videokaart hoort verder de belasting per stekker goed te verdelen, zo niet dan is het slecht ontworpen. Deze onbalans kan namelijk net zo goed tussen de pinnen van 1 stekker zijn!

Dus laat je niet gek maken door deze bangmakerij over pci-e verlopen.
Het betreffende nieuwsbericht is gebaseerd op twee specifieke gevallen waarbij je letterlijk dit kan doen: :F
  • Situatie 1: 600W door 2x 8-pin trekken en dan constateren dat er per 8-pin stekker 300W gaat en dus 200% over spec :+
  • Situatie 2: RTX3090Ti met een verloop naar 3x 8-pin en grandioze onbalans, waardoor 282.4W door 1 8-pin getrokken werd = probleem Nvidia kaart, niet het verloop.
Wanneer je er een haalt van goede kwaliteit (geen goedkope chinese aftermarket troep) en bij reviews nagaat of de belasting per connector netjes verdeeld is, is er niets aan de hand.
Voor de rest gewoon gezond verstand gebruiken en bij twijfel de temperatuur van de stekkers in de gaten houden, eventueel met een paar thermokoppels
Met hoge vermogens is dat sowieso een goed idee en dat geldt nog meer voor de compacte 12VHPWR connector!

Tijdens het schrijven van deze post, las ik toevallig dat een zekere Johnyguru (geen idee of dit hem ook echt is van Corsair) 3 uur geleden gereageerd heeft op dat WCCFTech roddelbericht. Maar hij zegt min of meer hetzelfde als ik:
So, just to make sure people know where I'm coming from so those who failed maths class and/or cannot be bothered to look up a data sheet while using disqus from their mom's basement can stop needlessly trolling....

Look up the data sheet for a mini-fit jr. terminal and do the math. Even do wort case scenario math, if you wish. The "spec" for the 8-pin mini-fit jr. connector is not 150W as the article states. In fact, it's potentially twice that. The 150W specification came down from Nvidia about 10 years ago and was not based on the power delivery capability of the connector. Think about it. What's the difference between a 6-pin and 8-pin in "power rating". The 6-pin is for 75W and the 8-pin is for 150W. What's the difference between the two? The 8-pin has two sense wires. Two wires that don't even participate in power delivery, yet somehow doubles the capability in power delivery? Think about that for a moment.

In fact, the wire to board current rating for a dual row 8-pin connector using HCS 16g terminals is HIGHER than the rating of the terminals used in the 12VHPWR connector (10A vs. 9A). The truncated, redacted, whatever letter received by wccftech failed to mention/show that the melting connectors were actually the 12VHPWR connectors and not 8-pin mini-fit jrs. And you'll probably note that the letter does not make any mention of mini-fit jr., splitters, adapters, etc. Only that they have witness thermal variance.

As for the part about variance between terminals: You can take ANY multi-conductor terminal, micro-fit, mini-fit, etc., and find a variance in resistance, voltage and thermals; especially at higher loads like this.

This is why I take issue with the article. There is NO problem with using the Seasonic dual 8-pin to 12VHPWR shown here: https://www.tomshardware.co..., for example, and the "concerns of thermal variance" does not apply to it whatsoever.

Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En de volgende. Gewoon echt 4 slots en inderdaad een nieuwe 12 pin connector.
Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/09/LENOVO-RTX4090-hero-768x571.jpg

https://videocardz.com/ne...s-a-true-quad-slot-design

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 14:34
DaniëlWW2 schreef op woensdag 14 september 2022 @ 11:54:
En de volgende. Gewoon echt 4 slots en inderdaad een nieuwe 12 pin connector.
[Afbeelding]

https://videocardz.com/ne...s-a-true-quad-slot-design
SFF liefhebbers kunnen wel janken nu ze dit zien.

Wie goed doet, die goed ontmoet.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Het ziet er wel strak uit zeg :)

March of the Eagles


  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
AtlAntA schreef op woensdag 14 september 2022 @ 11:57:
[...]


SFF liefhebbers kunnen wel janken nu ze dit zien.
Lomp groot.

Zelfs voor een M-atx build (maarja +/- 20-22 liter is ook "SFF") gaat dit vervelend worden met onbruikbare uitbreidingssloten.
Ik gebruik nog een Creative X-fi kaart voor EAX games (ookal kan dat met software emulatie...) en heb express een M-atx build gebouwd.

En in veel behuizingen kan deze dus ook niet eens meer gekanteld (verticaal?) gemonteerd worden omdat in dat soort behuizingen vaak maar ruimte is voor 2-3 slots.
En/of de grafische zit dan idioot dicht op je zijpaneel en gaat problemen krijgen met koeling/herrie.

Een anti-sag bracket moeten gebruiken met deze kaarten (hoeveel weegt dit gebakje?) lees je ook steeds meer online.
Ik ben ook benieuwd hoe Lenovo dat gaat doen met het versturen van deze systemen?
Grappig dat er een hand voor de foto zit maar ik kan me voorstellen dat de kaart op dat punt ook aan de behuizing vast zit :P

@XWB Ik vind het ook mooi en strak, weinig toeters en RGB bellen zo te zien (zijkant logo wellicht verlicht)?
Is dit een Gigabyte kaart? Nevermind het is een Lenovo.

[ Voor 49% gewijzigd door HugoBoss1985 op 14-09-2022 12:25 ]


  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 10:09
AtlAntA schreef op woensdag 14 september 2022 @ 11:57:
SFF liefhebbers kunnen wel janken nu ze dit zien.
Mwoh, mensen die een energierekening moeten betalen worden er ook niet per se vrolijk van. Hoewel je met zo'n kaart natuurlijk wel weer minder kosten voor verwarming hebt. :+

Voor mij hoeft al dat geweld niet, maar mensen die teveel geld hebben kunnen binnenkort hun lol weer op met nieuwe hardware aanschaffen. Naast de astronomische prijs van de kaart zelf kom je eventueel ook een nieuwe kast en voeding te kopen, als je dat niet in een eerdere ronde al gedaan had.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DaniëlWW2 schreef op woensdag 14 september 2022 @ 11:54:
En de volgende. Gewoon echt 4 slots en inderdaad een nieuwe 12 pin connector.
[Afbeelding]

https://videocardz.com/ne...s-a-true-quad-slot-design
TBH, dit gaat nergens meer over imho. :X

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
MneoreJ schreef op woensdag 14 september 2022 @ 12:03:
[...]

Mwoh, mensen die een energierekening moeten betalen worden er ook niet per se vrolijk van. Hoewel je met zo'n kaart natuurlijk wel weer minder kosten voor verwarming hebt. :+

Voor mij hoeft al dat geweld niet, maar mensen die teveel geld hebben kunnen binnenkort hun lol weer op met nieuwe hardware aanschaffen. Naast de astronomische prijs van de kaart zelf kom je eventueel ook een nieuwe kast en voeding te kopen, als je dat niet in een eerdere ronde al gedaan had.
Een voeding dus niet persé, dat is een aantal posts hierboven uitgelegd.
Die nieuwe connector voelt voor mij dus ook steeds weer als iets van een truukje van Nvidia om ons op kosten te jagen (misschien alu-hoedje-denken van mij).
Het heeft ook schijnbaar met de PCB grootte van de kaarten te maken "geen ruimte voor oude/grote connectoren"...

Het is anders ook een goed argument om een oude *RTX 3000 kuch kuch* kaart kopen om men de kosten van een nieuwe voeding uit te besparen ;)

Ik ben benieuwd hoe AMD daar mee om zal gaan.

@MneoreJ Dat is wellicht in de winter leuk maar in de zomer ben ik 200-220 watt al heel snel beu hoor.

[ Voor 18% gewijzigd door HugoBoss1985 op 14-09-2022 12:12 ]


Acties:
  • +2 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 10:09
HugoBoss1985 schreef op woensdag 14 september 2022 @ 12:06:
Een voeding dus niet persé, dat is een aantal posts hierboven uitgelegd.
Niet voor de connector, nee, als je met verloopstukjes in de weer kan, maar wel puur qua vermogen al.

Al word ik als eindgebruiker echt niet enthousiast van opmerkingen als "hou de temp anders even met een thermokoppel in de gaten", ik mag hopen dat dat gewoon goed zit. 8)7
Die nieuwe connector voelt voor mij dus ook steeds weer als iets van een truukje van Nvidia om ons op kosten te jagen (misschien alu-hoedje-denken van mij).
Denk niet dat NV een kickback krijgt van voedingen, en je op kosten jagen is voor geen enkel bedrijf een doel an sich -- ze willen jouw geld hebben, niet dat je gewoon geld uitgeeft.

Voor de astronomische prijzen die ze voor de high-end rekenen moeten ze het echt niet hebben van connector aftersales, of zo. Dat is inderdaad puur een manier om de redesign van hun PCB af te wentelen op de rest. Als ze nou in plaats daarvan hun chips even zouden redesignen om minder prik te slurpen... maar dat is veel moeilijker, dus ja. :P

[ Voor 5% gewijzigd door MneoreJ op 14-09-2022 12:14 ]

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 12:09
Hahaha, nice. Maar serieus, als ik zo veel aan een videokaart uit zo geven (wat ik natuurlijk niet ga doen) dan verwacht ik eigenlijk ook dat het een monster is.

Hopelijk zien we binnenkort ook wat normalere 4000 series kaarten.

Mechwarrior Online: Flapdrol


Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

HugoBoss1985 schreef op woensdag 14 september 2022 @ 12:02:
[...]


Lomp groot.

Zelfs voor een M-atx build (maarja +/- 20-22 liter is ook "SFF") gaat dit vervelend worden.
Ik gebruik nog een Creative X-fi kaart voor EAX games (ookal kan dat met software emulatie...) en heb express een M-atx build gebouwd.

En in veel behuizing kan deze dus ook niet meer gekanteld (verticaal?) gemonteerd worden omdat hier vaak maar ruimte is voor 2-3 slots.
En/of de grafische zit dan idioot dicht op je zijpaneel en gaat problemen krijgen met koeling/herrie.

Een anti-sag bracket moeten gebruiken met deze kaarten lees je ook steeds meer online.
Zo kijk ik er dus ook naar. Nu heb ik best een fatsoenlijk formaat behuizing, maar met zo'n lomp ding, kan je bijna al je PCIe lanes afschrijven omdat je er niks in kan doen. Moederborden moeten zowat ontworpen gaan worden rond het gegeven dat de drie slots eronder niks anders kunnen dan een M.2 slot.

Dit formaat videokaarten domineert je systeem en met zo'n enorm koelblok, weet je dat het verbruik ook enorm zal zijn. Hitte die in je behuizing komt en die je er nauwelijks uit gaat krijgen. Het is tegenwoordig de trend om elke "65W TDP" CPU maar een AIO te geven, maar voor deze klasse aan videokaarten zou dat eigenlijk moeten. Hier zijn je 360mm radiatoren niet zo overdreven meer voor. Zo kan je immers de hitte ook echt uit de behuizing krijgen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
DaniëlWW2 schreef op woensdag 14 september 2022 @ 12:19:
[...]


Zo kijk ik er dus ook naar. Nu heb ik best een fatsoenlijk formaat behuizing, maar met zo'n lomp ding, kan je bijna al je PCIe lanes afschrijven omdat je er niks in kan doen. Moederborden moeten zowat ontworpen gaan worden rond het gegeven dat de drie slots eronder niks anders kunnen dan een M.2 slot.

Dit formaat videokaarten domineert je systeem en met zo'n enorm koelblok, weet je dat het verbruik ook enorm zal zijn. Hitte die in je behuizing komt en die je er nauwelijks uit gaat krijgen. Het is tegenwoordig de trend om elke "65W TDP" CPU maar een AIO te geven, maar voor deze klasse aan videokaarten zou dat eigenlijk moeten. Hier zijn je 360mm radiatoren niet zo overdreven meer voor. Zo kan je immers de hitte ook echt uit de behuizing krijgen.
Helemaal mee eens.
Je bent bijna verplicht een ATX mobo te kopen ook als je maar één uitbreidingskaart wilt gebruiken.
Maarja of dat een relevantie doelgroep is...

Maar buiten dat alles vraag ik me ook af hoe je 450 watt gaat koelen in de meeste SFF behuizingen... als het al past :P (je zal je minimum volume -behuizing formaat- naar boven moeten bijstellen).

Ik voorzie ook problemen met de herrie die SFX voedingen gaan produceren met deze videokaarten.
Wat dat betreft ben je ook verplicht om een nieuwe SFX voeding (er zijn bijvoorbeeld 850 watt SFX ATX 3.0 PCI-E 5.0 voedingen in de maak) aan te schaffen.
Ik denk dat een vrij stille Corsair SF750 2018 (als die dit geweld überhaupt aan kan) niet zo stil meer is met een totaal systeem verbruik van richting de 600-750 watt.
Met een RTX2070 draait de fan overigens (bijna) nooit... doe er dan +/- 300 watt bij. :X

[ Voor 3% gewijzigd door HugoBoss1985 op 14-09-2022 12:43 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik vraag me al af hoe je een 450W videokaart moet gaan koelen in een reguliere ATX behuizing. O-)
Er is gewoon een reden waarom de afgelopen maanden, zoveel mensen ook hier zeiden dat 250-300W wel het maximum is en liever onder de 250W. Zeker moderne ATX behuizingen kunnen het gewoon niet aan met het belachelijke ratio aan glas en paneel vs. opening voor ventilatoren. En als het wel afgevoerd kan worden, dan zit je met een straalkachel. Misschien fijn voor de winter, zeker met de gasprijzen, maar in de zomer is het echt niet leuk als je ernaast zit...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 12:09
HugoBoss1985 schreef op woensdag 14 september 2022 @ 12:29:
Je bent bijna verplicht een ATX mobo te kopen ook als je maar één uitbreidingskaart wilt gebruiken.
Maarja of dat een relevantie doelgroep is...
Dacht dat er nog wel borden met een kleine pci-e boven de x16 slot zouden zijn maar zo te zien zijn die bij de meeste borden achterwege gelaten om daar een m.2 slot te hebben.

Mechwarrior Online: Flapdrol


  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
haarbal schreef op woensdag 14 september 2022 @ 12:37:
[...]

Dacht dat er nog wel borden met een kleine pci-e boven de x16 slot zouden zijn maar zo te zien zijn die bij de meeste borden achterwege gelaten om daar een m.2 slot te hebben.
Offtopic maar die borden hebben soms ook als extra nadeel (voor NVME temperaturen is het wél beter dat deze niet tussen een grafische kaart en mobo zit) dat het primaire pci-e slot één plek lager zit dan de hoogste (normale/gangbare) plek op een mobo.
Dan is er kans dat de kaart i.c.m. dat soort mobo's niet eens meer te gebruiken is in een M-atx build (dus je moet dan een ander mobo hebben of voor ATX behuizingen gaan).

Of kijk even naar een NR200P met M-itx bord... ik denk dat je zelfs bottom intake slim fans wel kan vergeten met deze kaarten?
Als de kaart daar al in kan? :+

[ Voor 17% gewijzigd door HugoBoss1985 op 14-09-2022 12:48 ]


Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 10:09
DaniëlWW2 schreef op woensdag 14 september 2022 @ 12:34:
Zeker moderne ATX behuizingen kunnen het gewoon niet aan met het belachelijke ratio aan glas en paneel vs. opening voor ventilatoren.
Nou ja, daarvoor moeten de kastenboeren natuurlijk ook wel de hand in eigen boezem steken. Adverteren met airflow terwijl je gewoon een glaspaneel ervoor hebt geplakt met een paar millimeter speling waar de lucht dan doorheen zou moeten schurkt gevaarlijk tegen misleiding aan.

Laat niet af dat al dat vermogen en de bokkensprongen met nieuwe connectors gewoon geen goede ontwikkeling is. Doet me inmiddels een beetje denken aan toen Intel met BTX kwam (kennen we die nog?) als doekje voor het bloeden van de belachelijke warmte van de Pentium 4. Uiteindelijk moest de redding gewoon van zuinigere chips komen.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +6 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14:59
NVIDIA GeForce RTX 4090 & RTX 4080 16GB/12GB max TGP and GPU clocks specs have been leaked

We combined specs for upcoming RTX 40 GPUs from multiple sources of ours, but also reports from kopite7kimi and Chiphell who confirm some parts of them. What is new is the information max TGP and boost clocks.

GeForce RTX 4090

Starting with RTX 4090, this model features AD102-300 GPU, 16384 CUDA cores and boost clock up to 2520 MHz. The card features 24GB GDDR6X memory, supposedly clocked at 21 Gbps. This means that it will reach 1 TB/s bandwidth, just as the RTX 3090 Ti did. Thus far, we have only heard about a default TGP of 450W, but according to our information, the maximum configurable TGP is 660W. Just note, this is the maximum TGP to be set through BIOS, and it may not be available for all custom models.

GeForce RTX 4080 16GB

The RTX 4080 16GB has AD103-300 GPU and 9728 CUDA cores. The boost clock is 2505 MHz, so just about the same as RTX 4090. This model comes with 16GB GDDR6X memory clocked at 23 Gbps, and as far as we know, this is the only model with such a memory clock. The TGP is set to 340W, and it can be modified up to 516W (again, that’s max power limit).

GeForce RTX 4080 12GB

GeForce RTX 4080 12GB is what we knew as RTX 4070 Ti or RTX 4070. NVIDIA has made a last-minute name change for this model. It is equipped with AD104-400 GPU with 7680 CUDA cores and boost up to 2610 MHz. Memory capacity is 12GB, and it uses GDDR6X 21Gbps modules. RTX 4080 12GB’s TGP is 285W, and it can go up to 366W.

As you can see, there is no RTX 4070 listed for now, and AIBs do not expect this to change (after all, it’s just 6 days until announcement). As far as the launch timeline is concerned, RTX 4090 is expected in the first half of October, while RTX 4080 series should launch in the first two weeks of November. We are waiting for detailed embargo information, so we should have more accurate data soon. To be confirmed are still PCIe Gen compatibility and obviously pricing.

https://videocardz.com/ne...ks-specs-have-been-leaked

Acties:
  • +2 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 14:03
Paprika schreef op woensdag 14 september 2022 @ 12:43:
NVIDIA GeForce RTX 4090 & RTX 4080 16GB/12GB max TGP and GPU clocks specs have been leaked

We combined specs for upcoming RTX 40 GPUs from multiple sources of ours, but also reports from kopite7kimi and Chiphell who confirm some parts of them. What is new is the information max TGP and boost clocks.

GeForce RTX 4090

Starting with RTX 4090, this model features AD102-300 GPU, 16384 CUDA cores and boost clock up to 2520 MHz. The card features 24GB GDDR6X memory, supposedly clocked at 21 Gbps. This means that it will reach 1 TB/s bandwidth, just as the RTX 3090 Ti did. Thus far, we have only heard about a default TGP of 450W, but according to our information, the maximum configurable TGP is 660W. Just note, this is the maximum TGP to be set through BIOS, and it may not be available for all custom models.

GeForce RTX 4080 16GB

The RTX 4080 16GB has AD103-300 GPU and 9728 CUDA cores. The boost clock is 2505 MHz, so just about the same as RTX 4090. This model comes with 16GB GDDR6X memory clocked at 23 Gbps, and as far as we know, this is the only model with such a memory clock. The TGP is set to 340W, and it can be modified up to 516W (again, that’s max power limit).

GeForce RTX 4080 12GB

GeForce RTX 4080 12GB is what we knew as RTX 4070 Ti or RTX 4070. NVIDIA has made a last-minute name change for this model. It is equipped with AD104-400 GPU with 7680 CUDA cores and boost up to 2610 MHz. Memory capacity is 12GB, and it uses GDDR6X 21Gbps modules. RTX 4080 12GB’s TGP is 285W, and it can go up to 366W.

As you can see, there is no RTX 4070 listed for now, and AIBs do not expect this to change (after all, it’s just 6 days until announcement). As far as the launch timeline is concerned, RTX 4090 is expected in the first half of October, while RTX 4080 series should launch in the first two weeks of November. We are waiting for detailed embargo information, so we should have more accurate data soon. To be confirmed are still PCIe Gen compatibility and obviously pricing.

https://videocardz.com/ne...ks-specs-have-been-leaked
Alles bij elkaar voelt dit voor mij weer als een Geforce 5 / GTX 480 moment...

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 12:09
HugoBoss1985 schreef op woensdag 14 september 2022 @ 12:46:
[...]


Alles bij elkaar voelt dit voor mij als weer een Geforce 5 / GTX 480 verhaal van Nvidia...
ligt eraan of er ook een 5870 komt.

Mechwarrior Online: Flapdrol


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Ludewig schreef op woensdag 14 september 2022 @ 00:35:
[...]

Dat had ik ook al verwacht. Tot de 450 watt kun je ook nog uit met een oude voeding met een verloopstuk. Die heb je volgens mij alleen met 3 x 8-pin connectors, waarbij elke 8 pin tot 150 watt aan kan. Dus 3 x 150 = 450 watt.

Daarboven moet je volgens mij native 12VHPWR hebben (dus niet met verloopstuk) en er zijn nog niet veel van die voedingen. Bovendien gaan ze dan vast veel klachten krijgen van mensen die net voor de 3090 (Ti) hun PSU hebben geupgrade voor aardig wat geld en die dan weer zouden moeten upgraden.
Nee, er is niet een of andere magische grens bij 450W. Boven de 450W kun je nog steeds 8-pin connectors (elk 150W, dus ipv 3 combineer je er dan 4) combineren. Maar, zonder 12VHPWR (600W) kabel hoeft een voeding niet te voldoen aan de extra piekbelasting (200% 100us, 160% 10ms), om toch ATX v3.0 compliant te zijn. Verwarrend, en verkeerd opgeschreven door Intel, maar wel feit:
YouTube: We all had it wrong about ATX 3.0: A MAJOR Discovery
Ludewig schreef op woensdag 14 september 2022 @ 00:35:
Ik verwacht dan dat de 4090 Ti pas komt wanneer die voedingen redelijk goed beschikbaar zijn, en dat die kaart dan tot 600 watt gaat.
Steeds meer leveranciers komen met ATX v3 compliant voedingen, (helaas) zowel met als zonder 12VHPWR kabel. De 4090 Ti lijkt wellicht daardoor wat later te komen, maar de 3090 Ti kwam ook later dan de 3090 toen er geen ATX v3 "afhankelijkheid" was.
Ludewig schreef op woensdag 14 september 2022 @ 00:35:
Overigens heeft PCI SIG gewaarschuwd dat ze bij de verloopstukken voor de 12VHPWR soms gevaarlijke situaties zien, dus als iemand hier naar de 4090 gaat upgraden, zou ik goed in de gaten houden of hier klachten over komen:

https://www.techspot.com/...-can-get-dangerously.html

Een brandmelder installeren is ook een goed idee :P
Brandmelder sowieso verplicht :P
en inderdaad, die verloopstukken kunnen situaties geven die niet altijd verwacht zijn.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +4 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:24

CMT

Men moet zich realiseren dat 600W absoluut geen kattenpis is. Dat is genoeg vermogen om een kleine kamer te verwarmen / warm te houden in de winter (bijna stand 2 van een convector kachel).
We hebben het dan over 50A! door een 6 tal dunne aders in een bundel (kleiner dan 18AWG vanwege de nog kleinere stekker). Zonder omkijken even een stekkertje erin doen en klaar is kees, zit er gewoon niet meer bij.

Persoonlijk zou ik met zoveel continu vermogen (stroom eigenlijk) het zekere voor het onzeker nemen en een thermokoppel in de kabelbundel doen, zo dicht mogelijk bij de connector.
Puur voor de gemoedsrust. Maar ik ben dan ook niet een gemiddelde tweaker denk ik :P.

Het punt dat ik in ieder geval wilde maken is dat er 0% reden is dat de 12VHPWR connector meer belastbaar zou zijn dan 2x 6/8-pin PCI-e.

Igorslab.de heeft destijds als zo'n beetje de enige er aandacht aan besteed:
https://www.igorslab.de/e...rtx-3090-without-melting/
600W scheen geen 'probleem' te zijn, in ieder geval niet voor de connector zelf. Maar met 750W beginnen de kabels bij de connector al na 10minuten te smelten.

De eindconclusie is ook aardig om te lezen. De 750W was aan de 2x-6/8-pin zijde geen issue ;):
Conclusion and summary

Firstly, the 12-pin connector with the Micro-Fit 3.0 is extremely powerful and would easily survive the 750-watt bomb in a period of maybe 10 minutes at most. Secondly, the suitability for OC experiments up to 450 watts would be well proven. As a result, NVIDIA’s design stunt with the 12-pin Micro-Fit connector is anything but risky. So everything works as planned. Thus also all-clear for all fear hares and naysayers.

What we saw by the way: the two 8-pin plugs, where only 3 contacts are responsible for the current flow at the end and not four, manage the 750 watts with a true gesture of nonchalance, so that the 400 watts per 6+2 connector measured before can be completely confirmed. As long as you don’t use chinese firecracker PSUs with twisted thin cords, you are still on the safe side with the 12-pin or 2x 6+2 pin, even with the big Ampere cards.

Acties:
  • +3 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:24

CMT

DaniëlWW2 schreef op woensdag 14 september 2022 @ 12:19:
[...]


Zo kijk ik er dus ook naar. Nu heb ik best een fatsoenlijk formaat behuizing, maar met zo'n lomp ding, kan je bijna al je PCIe lanes afschrijven omdat je er niks in kan doen. Moederborden moeten zowat ontworpen gaan worden rond het gegeven dat de drie slots eronder niks anders kunnen dan een M.2 slot.

Dit formaat videokaarten domineert je systeem en met zo'n enorm koelblok, weet je dat het verbruik ook enorm zal zijn. Hitte die in je behuizing komt en die je er nauwelijks uit gaat krijgen. Het is tegenwoordig de trend om elke "65W TDP" CPU maar een AIO te geven, maar voor deze klasse aan videokaarten zou dat eigenlijk moeten. Hier zijn je 360mm radiatoren niet zo overdreven meer voor. Zo kan je immers de hitte ook echt uit de behuizing krijgen.
Als iemand die een full custom loop heeft met 2x360mm rad's in een Corsair 5000D airflow kast, kan ik aangeven dat het al lastig is om 350W goed uit de kast te krijgen.
400W zou nog gaan, maar dat gaat ten kosten van de stilte (fan's >1500rpm).
600W kan je 100% vergeten, tenzij je de fan's op 2000 rpm verdraagt.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Paprika schreef op woensdag 14 september 2022 @ 12:43:
NVIDIA GeForce RTX 4090 & RTX 4080 16GB/12GB max TGP and GPU clocks specs have been leaked

We combined specs for upcoming RTX 40 GPUs from multiple sources of ours, but also reports from kopite7kimi and Chiphell who confirm some parts of them. What is new is the information max TGP and boost clocks.

GeForce RTX 4090

Starting with RTX 4090, this model features AD102-300 GPU, 16384 CUDA cores and boost clock up to 2520 MHz. The card features 24GB GDDR6X memory, supposedly clocked at 21 Gbps. This means that it will reach 1 TB/s bandwidth, just as the RTX 3090 Ti did. Thus far, we have only heard about a default TGP of 450W, but according to our information, the maximum configurable TGP is 660W. Just note, this is the maximum TGP to be set through BIOS, and it may not be available for all custom models.

GeForce RTX 4080 16GB

The RTX 4080 16GB has AD103-300 GPU and 9728 CUDA cores. The boost clock is 2505 MHz, so just about the same as RTX 4090. This model comes with 16GB GDDR6X memory clocked at 23 Gbps, and as far as we know, this is the only model with such a memory clock. The TGP is set to 340W, and it can be modified up to 516W (again, that’s max power limit).

GeForce RTX 4080 12GB

GeForce RTX 4080 12GB is what we knew as RTX 4070 Ti or RTX 4070. NVIDIA has made a last-minute name change for this model. It is equipped with AD104-400 GPU with 7680 CUDA cores and boost up to 2610 MHz. Memory capacity is 12GB, and it uses GDDR6X 21Gbps modules. RTX 4080 12GB’s TGP is 285W, and it can go up to 366W.

As you can see, there is no RTX 4070 listed for now, and AIBs do not expect this to change (after all, it’s just 6 days until announcement). As far as the launch timeline is concerned, RTX 4090 is expected in the first half of October, while RTX 4080 series should launch in the first two weeks of November. We are waiting for detailed embargo information, so we should have more accurate data soon. To be confirmed are still PCIe Gen compatibility and obviously pricing.

https://videocardz.com/ne...ks-specs-have-been-leaked
Ahh zie je wel, Nvidia toch gewoon 2,5 GHz, niks van die 3 GHz onzin (misschien voor de kleinere chips). Zelfs als AMD gelijk gaat spelen met de 7900XT vs deze 4090, zullen ze dat doen met een lager TGP en een lagere prijs, gewoon, omdat ze dat kunnen. "Winnen" voor AMD is niet op performance, maar op performance/Watt en performance/oppervlak (productie kosten). Ze hoeven de performance crown niet eens... -O-

En zoals ik al zei, geen 4070. Maar wat ik bedoel is: geen nieuwe Nvidia kaart voor het $500 prijspunt, dus deze 4080 12GB, 16GB en 4090 zullen een flinke duit kosten.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +4 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14:59
CMT schreef op woensdag 14 september 2022 @ 13:27:
Men moet zich realiseren dat 600W absoluut geen kattenpis is. Dat is genoeg vermogen om een kleine kamer te verwarmen / warm te houden in de winter (bijna stand 2 van een convector kachel).
Afbeeldingslocatie: https://www.pugetsystems.com/pic_disp.php?id=25446&width=631
To compare the thermal output of a space heater and a gaming PC, we used one of the many small space heaters we have around the office and built a gaming PC that drew roughly the same wattage. The space heater we used was a $25 HC-0114T 1000/1500W space heater that can be found under various brand names. When we measured the power draw, we found that on the low setting it pulled 870-890 watts depending on how hot the heater was. This is a lot of power and we ended up needing a gaming PC with three NVIDIA GTX Titans in triple SLI running Furmark to match the power draw.

During our testing, we found that both the PC and space heater drew varying amounts of power depending on how hot they were and how fast the fans were spinning. To try to keep both the space heater and PC drawing the same wattage, we took regular power draw readings and used MSI Afterburner to adjust the GPU power draw on the gaming PC to match the space heater's power draw. With this method, we were able to match the PC's power draw to the space heater's within a few watts and ended the tests with exactly the same total kWhr of power used.

To compare the thermal output of both devices, we put both the space heater and PC (with the keyboard, mouse, and monitor) in a closed room and took continuous measurements of the air temperature within the room. This room measured about 10' x 10.5' with a total volume of just under 940 cubic feet. All incoming and outgoing ventilation was blocked off to keep it completely isolated from our office's HVAC system and the surrounding office spaces were held at a constant 70 degrees Fahrenheit.
https://www.pugetsystems....ce-Heater-Efficiency-511/

600W voor de GPU met een passende CPU komt op 100% load zeker wel in de buurt ja. Met 3-4 monitoren ga je zelfs wel over de 870-890W heen. :+

Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 10:09
Paprika schreef op woensdag 14 september 2022 @ 13:37:
we ended up needing a gaming PC with three NVIDIA GTX Titans in triple SLI running Furmark to match the power draw.
Is toch mooi hoe de techniek voortschrijdt -- in 2013 hadden ze nog drie van die beesten nodig in SLI, krap 10 jaar later kunnen we hetzelfde bereiken met maar 1 kaart (als je er ook nog een beetje een goede CPU bij neemt). :+

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 14:21
Die 12 pin vind ik persoonlijk toch echt om van te huilen en dan hebben we het nog niet eens over de locatie van dat ding. Ik heb prachtige extensies voor mijn power kabels die ik nu dus allemaal zou moeten vervangen alleen omdat 2x8 ineens niet meer zou werken.

Het is maar te hopen dat de nieuwe 12 pin ook snel cable mos alternatieven krijgen en dat ze ook nog eens een 12 pin standaard aanhouden ipv random layouts wat nu het geval is met veel voeding kabels. Een extensie zal immers een slecht idee zijn omdat je dan cablemod > 12 pin adapter > voeding krijgt. niet echt bevorderlijk.

Grote kans dus dat de volgende pc uit het zicht onder het bureau komt te staan.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

WTF Nvidia. }:|
Wat is dit nu weer voor rotstreek om twee "RTX4080" te gaan maken die gebaseerd zijn op verschillende chips waarvan de betere SKU met bijna 27% extra ALU's, 232GB/s extra geheugenbrandbreedte en een 55W hoger TDP gaat komen. Ik zie ze het proberen om mensen te verwarren dat de "285W RTX4080" net zo presteert als de "340W RTX4080" "omdat je die extra 4GB niet nodig hebt". Dit terwijl het een volle tier aan prestatieverschil zal worden.

In ieder geval kunnen de "makkelijk 3GHz" geruchten hopelijk nu wel de prullenbak in. Het was nooit echt realistisch. 2,5GHz+ is nog steeds zeker niet verkeerd. Ook is nu wel duidelijk hoe enorm groot het verschil tussen AD102 en AD103 lijkt te worden. Als de RTX4090 inderdaad rond de 80% sneller uitkomt dan de RTX3090Ti (en dat kan nog steeds lager omdat het TSE was), tja dan zie je nu eigenlijk al dat die RTX4080 16GB (net) boven de RTX3090Ti zal uitkomen voor 110W minder. Veel meer zit er dan niet in. Dat zou niet slecht zijn als de RTX3090Ti niet een nieuwe standaard in inefficiëntie had gezet.

Ergo het lijkt heel erg erop dat Lovelace inderdaad "Ampere Next" is zonder echt fundamentele verbeteringen in shaders. Ik vermoed dat ze die L2 cache uitruilen voor minder geheugenbus net zoals RDNA2 en daar efficiëntie op winnen in ruil voor hogere productiekosten. Verder natuurlijk betere RT en wat optimalisaties. Neemt niet weg dat dit erg begint te lijken op Pascal naar Turing. Relatief vergelijkbare prestaties, net iets efficiënter, (betere) RT.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
CMT schreef op woensdag 14 september 2022 @ 13:27:
We hebben het dan over 50A! door een 6 tal dunne aders in een bundel (kleiner dan 18AWG vanwege de nog kleinere stekker).
De draad zal het probleem niet zijn. Men gebruikt doorgaans 18 AWG en bijvoorbeeld Lian-Li maakt er een beetje een dingetje van dat hun 12-pins zelfs 16 AWG gebruikt. Voor de lengtes van deze draden zijn beide meer dan voldoende. Misschien kiezen voor 16 AWG omdat de draden zo kort op elkaar zitten, maar 18 AWG kan die 8,3A op 12V best hebben.

Het probleem is zoals je zelf aan geeft de stekker. Het zit allemaal te dicht op elkaar, wat het helemaal geen "betere" stekker maakt. Compacter, niet beter.

Wat mij betreft zijn bedrijven als Molex en AMP toonaangevend, er is een reden dat zij al 50-60 jaar toch wel de standaard zijn. Molex vindt bijvoorbeeld enkel hun dikste pinnen (2,36mm) goed genoeg voor 8,5A. AMP/TE vond 11A genoeg voor hun "Molex" (Mate-n-Lok blablablcijfersblabla, die witte stekker voor harde schijven die wij meestal "Molex" noemen maar dat niet is :P), maar dat ding heeft ook een pitch van 5mm. Pinnen zijn vergelijkbaar met Molex, ik meen 2,30.

Nu weet ik niet wat voor pinnen deze 12-pins stekker gebruikt, maar iets zegt me dat ze een stuk kleiner zijn dan bovengenoemde. En dan zit het allemaal ook nog eens veel dichter op elkaar. Een Molex (of "Molex" :+) stekker krijg je echt niet zomaar aan het smelten, de kans is groter dat je draad het begeeft. Maar met deze stekker zou ik er niet van op kijken als er regelmatiger verhalen van gesmolten stekkers zijn.


Ja, de +12V (gele) draad van een "Molex" voor harde schijven mag maar liefst 132W trekken...op 18 AWG welteverstaan.

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

De meeste mensen zijn geen techneuten.

Je zou er op moeten kunnen vertrouwen dat dit soort producten (van A-merken) gewoon veilig zijn. Het is allemaal veel te verwarrend en ondoorzichtig.

Hopelijk onstaan er geen ongelukken.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
CMT schreef op woensdag 14 september 2022 @ 05:35:
Dat ze een maximum voor de connector gespecificeerd hebben is iets anders (en daarin zijn ze redelijk conservatief in geweest omwille van maximale veiligheid).
Het is alleen conservatief als de fabrikanten zelf een veel hogere limiet gebruiken bij hun design en tests. Nu heb ik daar niet direct vertrouwen in.

Het is leuk als een stekker-standaard in theorie 300 watt aan zou moeten kunnen, maar wanneer fabrikanten ook matige kabels die slechts 150 watt aan kunnen in de doos stoppen, dan kun je dus niet aannemen dat je die 300 watt ook echt haalt op een veilige manier.
Een goede videokaart hoort verder de belasting per stekker goed te verdelen, zo niet dan is het slecht ontworpen. Deze onbalans kan namelijk net zo goed tussen de pinnen van 1 stekker zijn!
Ik had begrepen of in elk geval bedacht dat het gebrek aan controle-pinnen ervoor kan zorgen dat de belasting niet goed gemanaged wordt. Maar misschien heb ik dat fout.
Voor de rest gewoon gezond verstand gebruiken en bij twijfel de temperatuur van de stekkers in de gaten houden, eventueel met een paar thermokoppels
Dit vind ik echt een absurd advies. Wie gaat er nu tijdens of na een gamesessie zijn connectoren controleren of zelfs een thermokoppel gebruiken? Dan heb je het toch over een minimale fractie van de technisch onderlegde gebruikers en 0% van de gemiddelde consumenten.

Wat is het volgende? 'Je kunt alleen vertrouwen hebben dat dit product veilig is als je hem eerst zelf doorlicht in een X-ray machine'?

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Wat betreft de bizarre 450/660W 4090 TGP's , verwijs ik nog maar een keer naar de quote van @Sp3ci3s8472 in deze thread:
Sp3ci3s8472 schreef op dinsdag 17 mei 2022 @ 01:47:
[...]
Je wordt haast impotent zoveel hete lucht er langs je ballen omhoog blaast :+.
https://gathering.tweakers.net/forum/view_message/71552382 voor context.

Je PC wordt dan gewoon echt een kacheltje.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:24

CMT

Ludewig schreef op woensdag 14 september 2022 @ 16:43:
[...]


Het is alleen conservatief als de fabrikanten zelf een veel hogere limiet gebruiken bij hun design en tests. Nu heb ik daar niet direct vertrouwen in.

Het is leuk als een stekker-standaard in theorie 300 watt aan zou moeten kunnen, maar wanneer fabrikanten ook matige kabels die slechts 150 watt aan kunnen in de doos stoppen, dan kun je dus niet aannemen dat je die 300 watt ook echt haalt op een veilige manier.
Bij deze, van de fabrikant zelf:
https://pdf1.alldatasheet...5082/MOLEX3/5557-02R.html
Met 16AWG draad, 12A max per contact.
Oftewel de 6/8-pin pci-e connector kan in theorie 432W aan.
Uiteraard onder bepaalde (lab)condities en dit moet als absolute en onveilige max gezien worden.
De kabels die bijeenkomen vormen mogelijk de zwakste schakel omdat daar de warmteontwikkeling zich concentreert en de pvc mantel/isolatie zwakker is, zoals eerder is aangeven door o.a. @Werelds .
Datasheet van de vertinde veercontacten voor 18-24AWG:
https://pdf1.alldatasheet...980/MOLEX3/5556-PBSP.html
9A per contact. Dat maakt 324W voor 6/8-pin pci-e.

Wanneer ze 12VHPWR met 600W veilig achten, dan geldt dat al helemaal voor 2x 6/8 pci-e connectoren.

150W kabels bestaan trouwens niet. De minimale draaddikte is redelijk gestandaardiseerd en varieert van 16-18 AWG voor stroomvoerende draden. Misschien dat je 22AWG bij voedingen rond de 500W tegenkomt, maar die kunnen sowieso geen 300W per connector leveren = non issue.
18AWG kan prima 8A aan, dus je mag van worst case 288W uitgaan.
Met 16AWG is 300W al helemaal geen probleem.

Wat wel een probleem is, is de situatie waarin zo'n connector gebruikt wordt.
Kabels bundelen concentreert de warmte en daarmee kan je een spec overschrijden. Een ander probleem is dat videokaarten met zoveel vermogen hete lucht uitblazen van 40°C of meer, vaak tegen de stekker aan. Nog een factor is dat een connector feitelijk maar 30 keer opnieuw verbonden mag worden (volgens specificatie om nog aan de datasheet opgaven te voldoen).
Dat zijn allemaal factoren die het toelaatbare of liever gezegd wat als veilig geacht wordt bepalen.
Om het 'foolproof' te maken wordt het dus sterk ondergewaardeerd (lees: begrenst).

Edit:
Voor alle duidelijkheid ik ben er geen voorstander van om meer dan 150W per pci-e connector te gebruiken of 300W voor de 12VHPWR. Het is mij de toegenomen risico / extra omkijken niet waard. En om zoveel vermogen af te voeren is reeds een uitdaging met airflow kasten.
Als je tenminste niet naast een stofzuiger wilt zitten.
Ik had begrepen of in elk geval bedacht dat het gebrek aan controle-pinnen ervoor kan zorgen dat de belasting niet goed gemanaged wordt. Maar misschien heb ik dat fout.
De sense pinnen worden gebruikt om te 'onderhandelen' hoeveel vermogen geleverd kan worden.
Niet dat er communicatie plaats vind, het zijn functioneel schakelaartjes die met open en dicht bepaalde combinaties mogelijk maken en daarmee dus een voeding/videokaart instellen.
Het is wezenlijk niet anders dan de 2 sense pinnen die al bij de 8-pin pci-e zitten (4 in het geval van 2x 8-pin).
Het is echt geen toeval dat je exact hetzelfde aantal +12V lijnen, return lijnen en sense pinnen aantreft bij de 12VHPWR connector t.o.v. 2x 8-pin.
Dit vind ik echt een absurd advies. Wie gaat er nu tijdens of na een gamesessie zijn connectoren controleren of zelfs een thermokoppel gebruiken? Dan heb je het toch over een minimale fractie van de technisch onderlegde gebruikers en 0% van de gemiddelde consumenten.

Wat is het volgende? 'Je kunt alleen vertrouwen dat dit product veilig te gebruiken is als je hem eerst zelf doorlicht in een X-ray machine'?
Dat mag je vinden uiteraard en ik zeg ook niet voor niets "bij twijfel".
Anderen vinden het mogelijk wel zinnig.
Het is als mogelijkheid aangegeven om onzekerheid weg te nemen.
De gemiddelde consument heeft ook geen videokaart die mogelijk 600W verbruikt, laat staan dat deze ervaring heeft met zoveel vermogen.

Toen ik 400W door de 6900XT reference trok, heb ik na een uurtje warmdraaien/stresstesten wel even gecontroleerd of de connectoren/kabels niet te warm werden.
Het is een kleine moeite en voorkomt de "had ik maar toch even..." gevallen.
Dat het geen gebruik is, wil niet zeggen dat het advies geen waarde heeft.
Absurd is om goed bedoelde advies in de wind te slaan.

[ Voor 3% gewijzigd door CMT op 15-09-2022 00:22 ]


Acties:
  • +4 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Possible Custom NVIDIA RTX 4090 Cooler Features 13 Heatpipes

Afbeeldingslocatie: https://www.techpowerup.com/img/ZrllA3yzlQ8Gvhgm.jpg

[ Voor 18% gewijzigd door Help!!!! op 14-09-2022 18:58 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dus ik wil eigenlijk eens een gok wagen wat het nu gaat worden:

-"RTX4080 12GB"
Hhet is de volle AD104 chip en zou hooguit de RTX4070Ti moeten zijn. Maar ik zou deze inschatten rond RTX3090 niveau. Zou zeker niet de eerste keer zijn dat Nvidia een 80Ti/90 matched met de volgende generatie hun "70". Op zich zou de clock speed verbetering misschien iets meer toe kunnen staan, maar ik denk dat deze uiteindelijk tegen geheugenbrandbreedte alsmede aantal rekeneenheden aan gaat lopen. Op lagere resoluties dan 4K kan het dus beter uitvallen dan op 4K en hoger.

-RTX4080
Tja ik denk circa 25-30% sneller dan de nep RTX4080, dus iets van 10-15%, misschien 20% sneller dan de RTX3090Ti. Op zich niet slecht in zowel prestaties als efficiëntie als je het afzet tegen GA102, maar ook niet heel geweldig. Efficiëntie met 340W geeft een vertekend beeld omdat de RX3090Ti zo inefficient is. Tegenover de RTX3090 is het eerder 20-30% sneller voor vergelijkbaar verbruik.

-RTX4090
Enorme sprong hier. TSE scores suggereren 80%, maar dat was blijkbaar ook met 3000MHz, waarschijnlijk een OC dus. Verder is het ook TSE wat zeker niet al te betrouwbaar is. Onder de streep vind ik deze wat lastig, maar ik neig naar 60-70% sneller dan de RTX3090Ti. Het is zeker een sprong qua efficiëntie, maar wederom is RTX3090Ti is niet efficient.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
DaniëlWW2 schreef op woensdag 14 september 2022 @ 22:56:
Dus ik wil eigenlijk eens een gok wagen wat het nu gaat worden:

-"RTX4080 12GB"
Hhet is de volle AD104 chip en zou hooguit de RTX4070Ti moeten zijn. Maar ik zou deze inschatten rond RTX3090 niveau. Zou zeker niet de eerste keer zijn dat Nvidia een 80Ti/90 matched met de volgende generatie hun "70". Op zich zou de clock speed verbetering misschien iets meer toe kunnen staan, maar ik denk dat deze uiteindelijk tegen geheugenbrandbreedte alsmede aantal rekeneenheden aan gaat lopen. Op lagere resoluties dan 4K kan het dus beter uitvallen dan op 4K en hoger.

-RTX4080
Tja ik denk circa 25-30% sneller dan de nep RTX4080, dus iets van 10-15%, misschien 20% sneller dan de RTX3090Ti. Op zich niet slecht in zowel prestaties als efficiëntie als je het afzet tegen GA102, maar ook niet heel geweldig. Efficiëntie met 340W geeft een vertekend beeld omdat de RX3090Ti zo inefficient is. Tegenover de RTX3090 is het eerder 20-30% sneller voor vergelijkbaar verbruik.

-RTX4090
Enorme sprong hier. TSE scores suggereren 80%, maar dat was blijkbaar ook met 3000MHz, waarschijnlijk een OC dus. Verder is het ook TSE wat zeker niet al te betrouwbaar is. Onder de streep vind ik deze wat lastig, maar ik neig naar 60-70% sneller dan de RTX3090Ti. Het is zeker een sprong qua efficiëntie, maar wederom is RTX3090Ti is niet efficient.
  • Qua 4090, 128 SM, 2,5 GHz. Dan verwacht je +52% van de SMs (tov 84 SMs) en 38% van de frequentie (tov 1822 MHz), is samen +111% max, in de praktijk minder door diminishing returns/bottlenecks, maar praktisch bijna 2x de 3090 Ti.
  • 4080 16GB is max +24% van de 3090 Ti. Dus komt in de praktijk niet verder dan 15-20% van de 3090 Ti.
  • 4080 12GB is max +2% van de 3090 Ti. Dus in de praktijk vergelijkbaar. Vandaar dat ze gekozen hebben voor een vergelijkbare naam (en prijs).
Geen van deze kaarten zal minder dan $699 kosten, MSRP. $2000 kan, maar ik vermoed "gewoon"
$1499 - 4090
$999 - 4080 16GB
$699 - 4080 12GB
hoger zou (nog) lachwekkend(er) zijn te midden van een miner GPU tsunami.

Productiekosten van de 4080's zullen hoger zijn dan AMD, maar meevallen vergeleken met de 4090. Dat beest zal groot zijn, duur, een kachel, en het is maar de vraag of Nvidia met 2520 MHz een Navi31 gaat verslaan, met 192 CU's en misschien wèl 3 GHz? Who knows. AMD wint sowieso op performance/Watt en performance/area, geen twijfel mogelijk.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +3 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +4 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nee joh, dat kan niet. Nvidia is nog allerlei dingen aan het aanpassen :+
Pagina: 1 ... 110 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.