Acties:
  • 0 Henk 'm!

  • Light21M
  • Registratie: September 2008
  • Laatst online: 11-09 22:18
Format-C schreef op dinsdag 14 november 2023 @ 21:09:
[...]

Of connector/ aansluiting zelf. Andere poorten /kabels proberen?
kan ook het ram zijn, als ik hem was is inbouwen in een andere pc

[ Voor 9% gewijzigd door Light21M op 14-11-2023 21:11 ]


Acties:
  • +1 Henk 'm!

  • D33F
  • Registratie: September 2006
  • Laatst online: 11-09 09:52

D33F

Tweelingtemmer

Format-C schreef op dinsdag 14 november 2023 @ 21:07:
[...]

Die voeding zou normaliter zowieso RUIM voldoende moeten zijn. Weet niet of je DDU al geprobeerd had maar dat zou ik als eerste doen.
Yes want ik heb eerst nog een volledige terugrol gedaan en dus ook alle restanten zover het kon verwijderd met DDU (voordat ik mijn clone image herstelde).

Lies are obvious to read because the truth is already written


Acties:
  • 0 Henk 'm!

  • D33F
  • Registratie: September 2006
  • Laatst online: 11-09 09:52

D33F

Tweelingtemmer

Light21M schreef op dinsdag 14 november 2023 @ 21:08:
[...]


slechte hdmi of displayport kabel?
It did cross my mind, maar kan dit daadwerkelijk een TDR / BSOD triggeren dan? Dit leek mij erg ver gezocht.

Lies are obvious to read because the truth is already written


Acties:
  • +1 Henk 'm!

  • D33F
  • Registratie: September 2006
  • Laatst online: 11-09 09:52

D33F

Tweelingtemmer

Light21M schreef op dinsdag 14 november 2023 @ 21:11:
[...]


kan ook het ram zijn, als ik hem was is inbouwen in een andere pc
Klopt dat heb ik ook als één van de oorzaken gevonden, zelfs zoiets als user permissions op full control zetten op nvlddmkm.sys zou het in sommige gevallen kunnen fixen.

RAM en CPU heb ik inmiddels ook uitgebreid getest en lijken stabiel / zonder fouten. Verder zou ik ook andere niet TDR gerelateerde BSODs verwachten indien het RAM geheugen of CPU instabiliteit vertonen (maar goed voor de zekerheid toch getest).

Vandaag weer de gehele avond zonder problemen doorgekomen.. Het blijft een lastig issue gezien het niet stelselmatig te reproduceren valt. Zelfs zoiets als de PC op een verdeeldoos aansluiten kan bij sommige mensen dit probleem triggeren, geen pijl op te trekken dus.

Toevallig vandaag met een collega op het werk erover gehad, niet lang geleden heeft hij een soortgelijk probleem gehad (en zich ook helemaal rot getroubleshoot) en bleek uiteindelijk toch zijn GPU te zijn.

Voor nu heb ik in ieder geval de laatste nieuwe driver (546.17) van Nvidia geïnstalleerd en de eerder genoemde nvlddmkm.sys permissies ingesteld.

Wellicht heb ik geluk, en als niet gaat de RTX 2060S van mijn vrouw in deze PC en kijken of het issue opgelost is. Zo ja dan moet deze 4070ti helaas het RMA pad bewandelen.

Lies are obvious to read because the truth is already written


Acties:
  • +3 Henk 'm!

  • D33F
  • Registratie: September 2006
  • Laatst online: 11-09 09:52

D33F

Tweelingtemmer

Nog even een update vanuit mijn kant. Nu 3 dagen later nog steeds geen issues meer gehad. Hopelijk blijft het hierbij en kan ik nu even lekker genieten van Alan Wake 2 zonder blackscreens / BSOD's :).

Desalniettemin ieder bedankt voor zijn / haar bijdrage O+.

Update: 20-11

Helaas was het vandaag toch weer prijs (zelfs twee keer). Dit terwijl ik aan de TV zat en mijn PC dus idle was weer een BSOD met dezelfde 0x00000116 bugcheck. Hierna gereboot en wilde meteen deze post aanpassen maar binnen 5 minuten een blackscreen (geen BSOD) maar wel TDR als oorzaak.

Nu maar even alles losgehaald en opnieuw gemonteerd in de PC + stekkers nogmaals gedubbelcheckt (leek allemaal in orde).

Mocht het weer gebeuren ga ik de GPU swappen.

[ Voor 55% gewijzigd door D33F op 20-11-2023 21:27 ]

Lies are obvious to read because the truth is already written


Acties:
  • 0 Henk 'm!

  • Tonton
  • Registratie: Juli 2000
  • Laatst online: 10-09 15:21
Rustig hier...

heb mijn 13700KF/6600ddr5 vervangen voor een 14700KF/7400ddr5 als winterupdatje.
14700kf loopt met Asus AI direct op 6000hz stabiel met max 1.39v, valt me goed mee lukte niet met de 13700
Direct even 3Dmax benchje gedaan maar grafisch is zelfde resultaat, dat kleine verschil is misschien wel alleen doordat video core langer op 3000 bleef hangen ipv naar 2975 te gaan.

Afbeeldingslocatie: https://tweakers.net/i/iA8mwMvuj5n2to6w8nsxDr-EHmQ=/800x/filters:strip_exif()/f/image/Y4MUVlWugjxnSdLG5lqYy7mI.png?f=fotoalbum_large

PC: LianLi O11D evo, Corsair HX1500i, Asus ROG Z790-A, i7-14700KF, 48GB DDR5 Corsair PC7400, MSI RTX5090 Suprim Liquid, Samsung 990pro 1+2TB, LG 42OLEDC4 *** HCS: LG 83OLEDG2, Marantz Cinema 40, B&W (702S2 HTM71S2 705S2 DB4S), Project X2B-at33ptg2, DS3B


Acties:
  • 0 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
verschil zal sowieso heel klein zijn,zie bv je gpu score die is hetzelfde gebleven,eerlijk gezegd snap ik die upgrade niet helemaal

Acties:
  • 0 Henk 'm!

  • Tonton
  • Registratie: Juli 2000
  • Laatst online: 10-09 15:21
freaky35 schreef op dinsdag 12 december 2023 @ 18:22:
verschil zal sowieso heel klein zijn,zie bv je gpu score die is hetzelfde gebleven,eerlijk gezegd snap ik die upgrade niet helemaal
oh was meer onderhoudsbeurtje om eens ff weer wat te installeren, niet om echt gains te gaan zien.
Bestaande is ook nog goed te verkopen dus kost me niet veel.
Leuk dat hij nu 6ghz draait en kon mem ook gelijk even van 32 naar 48gb brengen.

PC: LianLi O11D evo, Corsair HX1500i, Asus ROG Z790-A, i7-14700KF, 48GB DDR5 Corsair PC7400, MSI RTX5090 Suprim Liquid, Samsung 990pro 1+2TB, LG 42OLEDC4 *** HCS: LG 83OLEDG2, Marantz Cinema 40, B&W (702S2 HTM71S2 705S2 DB4S), Project X2B-at33ptg2, DS3B


Acties:
  • +2 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Tonton schreef op woensdag 13 december 2023 @ 11:07:
[...]

oh was meer onderhoudsbeurtje om eens ff weer wat te installeren, niet om echt gains te gaan zien.
Bestaande is ook nog goed te verkopen dus kost me niet veel.
Leuk dat hij nu 6ghz draait en kon mem ook gelijk even van 32 naar 48gb brengen.
Upgradekoorts dus...... Heb er ook vaak last van :)

Acties:
  • 0 Henk 'm!

  • SpaceMarine
  • Registratie: April 2003
  • Laatst online: 26-08 22:16
Heeft er iemand toevallig al iets "betrouwbaars" voorbij zien komen over de 4080 S/TI ?
Zit te azen op een upgrade, maar twijfel of ik daar wel/niet op moet wachten uiteindelijk.
Wordt veel genoemd over begin 2024 maar kan er verder niet veel over vinden dan dezelfde rumor die tweakers ook al noemde.

nope geen signature


Acties:
  • +1 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 13:26
SpaceMarine schreef op woensdag 13 december 2023 @ 22:17:
Heeft er iemand toevallig al iets "betrouwbaars" voorbij zien komen over de 4080 S/TI ?
Zit te azen op een upgrade, maar twijfel of ik daar wel/niet op moet wachten uiteindelijk.
Wordt veel genoemd over begin 2024 maar kan er verder niet veel over vinden dan dezelfde rumor die tweakers ook al noemde.
Nvidia heeft begin januari op CES een presentatie. De verwachting is dat ALS er nieuwe kaarten worden aangekondigd, dat het daar zal gebeuren.

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


  • SpaceMarine
  • Registratie: April 2003
  • Laatst online: 26-08 22:16
Thnx!
Ben wel nieuwsgierig of het de moeite waard zal zijn er op te wachten uiteindelijk. Je leest wel wat verhalen over dat ze voorzien dat de kaarten qua prijs rond de 4080 zullen liggen maar qua performance (en energieverbruik) tussen de 4080 en 4090 zullen liggen. Dan is het wel interessant om te wachten....

Maar volgens mij is het nog steeds koffiedik kijken tot er "echt" meer bekend wordt.

nope geen signature


  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
SpaceMarine schreef op donderdag 14 december 2023 @ 15:29:
Thnx!
Ben wel nieuwsgierig of het de moeite waard zal zijn er op te wachten uiteindelijk. Je leest wel wat verhalen over dat ze voorzien dat de kaarten qua prijs rond de 4080 zullen liggen maar qua performance (en energieverbruik) tussen de 4080 en 4090 zullen liggen. Dan is het wel interessant om te wachten....

Maar volgens mij is het nog steeds koffiedik kijken tot er "echt" meer bekend wordt.
Geloof dat energie ongeveer gelijk blijft. Hooguit iets meer cores en wat sneller geheugen. Denk zelf 5% sneller zodat hij ver weg blijft bij de 4090. Waarschijnlijk net genoeg tegenover de 7900xtx en hopelijk dan ook voor de xtx prijs (1000-1100).

Dan hebben ze een aardig product met ook nog es betere RT en Dlss. 16gb blijft een nadeeltje.

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 13:26
meljor schreef op donderdag 14 december 2023 @ 18:45:
[...]


Geloof dat energie ongeveer gelijk blijft. Hooguit iets meer cores en wat sneller geheugen. Denk zelf 5% sneller zodat hij ver weg blijft bij de 4090. Waarschijnlijk net genoeg tegenover de 7900xtx en hopelijk dan ook voor de xtx prijs (1000-1100).

Dan hebben ze een aardig product met ook nog es betere RT en Dlss. 16gb blijft een nadeeltje.
bwah, 16 GB lijkt me nog altijd genoeg voor 4K gaming tot aan de RTX 5000 series. voor zover ik weet zijn er momenteel geen games die effectief meer dan 16 GB VRAM gebruiken. Veel games wijzen tegenwoordig wel zoveel VRAM toe als ze kunnen, maar het effectieve verbruik zit doorgaans wel lager.

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • 0 Henk 'm!

  • GarBaGe
  • Registratie: December 1999
  • Laatst online: 12-09 16:23
Ja... echt he, hij gaat er toch komen.
De RTX 4070 Ti Super
*zucht*

https://videocardz.com/ne...070-super-leading-the-way

Ik snap dat de mislukte 4080 12G rename naar 4070 Ti wellicht een naam gebruikt die ze voor wat anders wilden gebruiken.
Maar om dan de 4080 12G Super te renamen naar 4070 Ti Super... Echt kansloze naamgeving...

En dan OOK nog een shift van AD104 naar AD103 en van 12GB naar 16GB ?!?
WTF?!?
Dan is het gewoon een 4080 "mini" Super ?!?
Edit: misschien bedoelen ze "4080 sub(par)"?

[ Voor 4% gewijzigd door GarBaGe op 15-12-2023 12:30 ]

Ryzen9 5900X; 16GB DDR4-3200 ; RTX-4080S ; 7TB SSD


Acties:
  • 0 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 13:26
GarBaGe schreef op vrijdag 15 december 2023 @ 12:29:
Ja... echt he, hij gaat er toch komen.
De RTX 4070 Ti Super
*zucht*

https://videocardz.com/ne...070-super-leading-the-way

Ik snap dat de mislukte 4080 12G rename naar 4070 Ti wellicht een naam gebruikt die ze voor wat anders wilden gebruiken.
Maar om dan de 4080 12G Super te renamen naar 4070 Ti Super... Echt kansloze naamgeving...

En dan OOK nog een shift van AD104 naar AD103 en van 12GB naar 16GB ?!?
WTF?!?
Dan is het gewoon een 4080 "mini" Super ?!?
Edit: misschien bedoelen ze "4080 sub(par)"?
Het beste wat je kunt doen als het gaat over computeronderdelen is gewoon de namen negeren en kijken naar de effectieve specs. Het doel van deze 4070 Ti Super, net als de andere Super kaarten, is denk ik vooral om tegemoet te komen aan de aanhoudende vraag van consumenten om lagere prijzen. Maar ze willen de prijzen niet gewoon laten zakken omdat hun board partners dat niet aankunnen, die hun marges zitten al aan de bodem. Dus in de plaats releasen ze een Super refresh waarbij ze het prijsniveau van kaarten met vergelijkbare naam kunnen min of meer gelijk houden, maar de prijzen voor bepaalde specs dan weer een niveau laten zakken. Dus als je vroeger pakweg een 4080 zou kopen omdat je 16 GB VRAM wilt hebben en daarvoor 1200 EUR zou moeten betalen, koop je nu gewoon een 4070 Ti Super voor 950 EUR. Of als je het budget wilt eraangeven kun je nog altijd een 4080 Super kopen.

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • +1 Henk 'm!

  • D33F
  • Registratie: September 2006
  • Laatst online: 11-09 09:52

D33F

Tweelingtemmer

Nog even een vervolg op mijn black screen issues met de INNO3D 4070TI X3. Aantal weken geleden alles weer opnieuw gemonteerd (lees GPU eruit en alle PSU stekkers nogmaals opnieuw bevestigd en gecheckt). Is toen een tweetal weken stabiel gebleven waarna de problemen langzaam weer terugkwamen (deze keren geen BSOD meer / systeem blijft netjes doorlopen maar wel de nodige WHEA-logger event id 17 meldingen).

Het is een gecorrigeerde hardwarefout opgetreden.

Onderdeel: PCI Express Root Port
Foutbron: Advanced Error Reporting (PCI Express)

En de device id wijst naar de PCI-E poort waar de GPU op zit ingeprikt.

Vandaag was het zelfs zo erg dat ik een black screen kreeg terwijl ik Youtube was het kijken dus amper belasting. Hierna PC gereboot en zodra ik de eventviewer had geopend opnieuw een black screen en GPU fans @ 100%.

Ik ben het langzaam wel een beetje zat, al weken het troubleshooten en rest van het systeem al meermaals helemaal doorgetest en software uitgesloten (lees herinstallatie Windows).

Best zuur om 909 euro uit te geven voor een GPU die zeer waarschijnlijk dus niet meer zo heel koosjer lijkt te zijn na amper 9/10 maanden gebruik.

Voor nu maar de oude 2060S geïnstalleerd en ga hier even 2 weken mee draaien. Mocht het probleem zich niet meer voordoen dan heb ik dus sterk het vermoeden dat de 4070TI toch iets mankeert en gaat deze RMA.

Update

Valt me nu trouwens wel op dat YouTube nu met de 2060S geen flikkeringen meer laat zien bij video's die niet full screen draaien. Met de 4070TI zag ik regelmatig flikkeringen op mijn scherm met een soort checkerbox like patroon zodra ik over de icoontjes ging in het YouTube venster. Initieel dacht ik dat dit een driver issue was maar nu ik dit niet meer zie bij de 2060S (met identieke drivers) begint mijn vermoeden toch wel sterker te worden (waarschijnlijk toch brakke VRAM?).

@INNO3D Ik vraag mij af hoe mijn kaart RMA kan gaan voor een probleem die heel willekeurig tevoorschijn komt? Dit lijkt mij niet iets wat jullie afdeling 1,2,3 kan ontdekken en dus de kaart waarschijnlijk retour gaat met de melding dat alles ok is?

Update 2

Toevallig op Reddit en Overclockers een soortgelijk issue tegengekomen waarbij toch de 12VHPWR kabel de boosdoener bleek te zijn. Dit ga ik nog even proberen voordat mijn kaart RMA gaat. Zou zonde zijn als hij opgestuurd wordt terwijl uiteindelijk de 12VHPWR adapter het euvel blijkt te zijn.

[ Voor 23% gewijzigd door D33F op 18-12-2023 17:54 ]

Lies are obvious to read because the truth is already written


Acties:
  • 0 Henk 'm!

  • INNO3D
  • Registratie: December 2021
  • Laatst online: 09-09 14:35

INNO3D

Bedrijfsaccount INNO3D
D33F schreef op zondag 17 december 2023 @ 20:14:
Nog even een vervolg op mijn black screen issues met de INNO3D 4070TI X3. Aantal weken geleden alles weer opnieuw gemonteerd (lees GPU eruit en alle PSU stekkers nogmaals opnieuw bevestigd en gecheckt). Is toen een tweetal weken stabiel gebleven waarna de problemen langzaam weer terugkwamen (deze keren geen BSOD meer / systeem blijft netjes doorlopen maar wel de nodige WHEA-logger event id 17 meldingen).

Het is een gecorrigeerde hardwarefout opgetreden.

Onderdeel: PCI Express Root Port
Foutbron: Advanced Error Reporting (PCI Express)

En de device id wijst naar de PCI-E poort waar de GPU op zit ingeprikt.

Vandaag was het zelfs zo erg dat ik een black screen kreeg terwijl ik Youtube was het kijken dus amper belasting. Hierna PC gereboot en zodra ik de eventviewer had geopend opnieuw een black screen en GPU fans @ 100%.

Ik ben het langzaam wel een beetje zat, al weken het troubleshooten en rest van het systeem al meermaals helemaal doorgetest en software uitgesloten (lees herinstallatie Windows).

Best zuur om 909 euro uit te geven voor een GPU die zeer waarschijnlijk dus niet meer zo heel koosjer lijkt te zijn na amper 9/10 maanden gebruik.

Voor nu maar de oude 2060S geïnstalleerd en ga hier even 2 weken mee draaien. Mocht het probleem zich niet meer voordoen dan heb ik dus sterk het vermoeden dat de 4070TI toch iets mankeert en gaat deze RMA.

Update

Valt me nu trouwens wel op dat YouTube nu met de 2060S geen flikkeringen meer laat zien bij video's die niet full screen draaien. Met de 4070TI zag ik regelmatig flikkeringen op mijn scherm met een soort checkerbox like patroon zodra ik over de icoontjes ging in het YouTube venster. Initieel dacht ik dat dit een driver issue was maar nu ik dit niet meer zie bij de 2060S (met identieke drivers) begint mijn vermoeden toch wel sterker te worden (waarschijnlijk toch brakke VRAM?).

@INNO3D Ik vraag mij af hoe mijn kaart RMA kan gaan voor een probleem die heel willekeurig tevoorschijn komt? Dit lijkt mij niet iets wat jullie afdeling 1,2,3 kan ontdekken en dus de kaart waarschijnlijk retour gaat met de melding dat alles ok is?

Update 2

Toevallig op Reddit en Overclockers een soortgelijk issue tegengekomen waarbij toch de 12VHPWR kabel de boosdoener bleek te zijn. Dit ga ik nog even proberen voordat mijn kaart RMA gaat. Zou zonde zijn als hij opgestuurd wordt terwijl uiteindelijk de 12VHPWR adapter het euvel blijkt te zijn.
Sorry voor de late Reactie. is het nu opgelost met de kabel? kan je eventueel wel van een nieuwe 12pin dongle sturen mocht dit helpen?

Acties:
  • 0 Henk 'm!

  • D33F
  • Registratie: September 2006
  • Laatst online: 11-09 09:52

D33F

Tweelingtemmer

INNO3D schreef op dinsdag 19 december 2023 @ 21:09:
[...]

Sorry voor de late Reactie. is het nu opgelost met de kabel? kan je eventueel wel van een nieuwe 12pin dongle sturen mocht dit helpen?
Geen probleem en alsnog dank voor je reactie.

Ik heb deze avond de Seasonic 12pin geïnstalleerd (deze gaat rechtstreeks van PSU naar 12pin) en zal het even twee weken aankijken en hopen dat het probleem hiermee is opgelost.

Gezien het probleem zich at random voordoet en soms dagenlang niet optreedt is het helaas nog te vroeg om te zeggen dat het probleem opgelost is.

Dit valt iig nog te proberen voordat ik het RMA pad ga bewandelen.

Ik hou jou en de rest op de hoogte :).

[ Voor 11% gewijzigd door D33F op 19-12-2023 22:44 ]

Lies are obvious to read because the truth is already written


Acties:
  • 0 Henk 'm!

  • INNO3D
  • Registratie: December 2021
  • Laatst online: 09-09 14:35

INNO3D

Bedrijfsaccount INNO3D
D33F schreef op dinsdag 19 december 2023 @ 22:41:
[...]

Geen probleem en alsnog dank voor je reactie.

Ik heb deze avond de Seasonic 12pin geïnstalleerd (deze gaat rechtstreeks van PSU naar 12pin) en zal het even twee weken aankijken en hopen dat het probleem hiermee is opgelost.

Gezien het probleem zich at random voordoet en soms dagenlang niet optreedt is het helaas nog te vroeg om te zeggen dat het probleem opgelost is.

Dit valt iig nog te proberen voordat ik het RMA pad ga bewandelen.

Ik hou jou en de rest op de hoogte :).
Ik heb zelf ook een soort gelijk probleem gehad en bleek het mijn psu zelf te zijn,

Acties:
  • 0 Henk 'm!

  • D33F
  • Registratie: September 2006
  • Laatst online: 11-09 09:52

D33F

Tweelingtemmer

INNO3D schreef op woensdag 20 december 2023 @ 16:45:
[...]

Ik heb zelf ook een soort gelijk probleem gehad en bleek het mijn psu zelf te zijn,
Dat zou nog kunnen maar de voeding is amper een jaar oud, van een goed merk en voorzien van meer dan genoeg vermogen. Zodra het probleem zich nogmaals voordoet gaat de 2060S er iig weer in.

De dagen dat ik met de 2060S heb gedraaid hebben geen problemen gegeven (terwijl ik de TDP toch aardig gelijk kan krijgen met de 4070TI).

Nu eerst maar even afwachten, hopelijk is het probleem over (please!).

Lies are obvious to read because the truth is already written


Acties:
  • +1 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
D33F schreef op woensdag 20 december 2023 @ 17:39:
[...]

Dat zou nog kunnen maar de voeding is amper een jaar oud, van een goed merk en voorzien van meer dan genoeg vermogen. Zodra het probleem zich nogmaals voordoet gaat de 2060S er iig weer in.

De dagen dat ik met de 2060S heb gedraaid hebben geen problemen gegeven (terwijl ik de TDP toch aardig gelijk kan krijgen met de 4070TI).

Nu eerst maar even afwachten, hopelijk is het probleem over (please!).
leeftijd zegt nie altijd wat,je kan altijd pech hebben dat die na een jaar stuk gaat,het blijft electronica.

Heb bv al eens gehad dat die na een week stuk ging,dat was een corsair 1000watt

Acties:
  • +1 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 13:26
Het punt is natuurlijk: als die voeding maar een jaar oud is en het effectief daaraan ligt, dan is die ook nog mooi binnen garantie. Dan breng je die binnen, je laat die testen en als die defect is kun je een nieuwe krijgen.

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • 0 Henk 'm!

  • D33F
  • Registratie: September 2006
  • Laatst online: 11-09 09:52

D33F

Tweelingtemmer

freaky35 schreef op woensdag 20 december 2023 @ 17:45:
[...]


leeftijd zegt nie altijd wat,je kan altijd pech hebben dat die na een jaar stuk gaat,het blijft electronica.

Heb bv al eens gehad dat die na een week stuk ging,dat was een corsair 1000watt
nzall schreef op woensdag 20 december 2023 @ 17:57:
Het punt is natuurlijk: als die voeding maar een jaar oud is en het effectief daaraan ligt, dan is die ook nog mooi binnen garantie. Dan breng je die binnen, je laat die testen en als die defect is kun je een nieuwe krijgen.
Daar ben ik het zeker met jullie eens, maar het heeft ook weinig zin om hardware RMA te sturen die niet kapot lijkt te zijn. Dat wil ik wel graag zeker weten :).

Sowieso kan ik nog voordat ik mijn kaart RMA zou sturen nog testen met de voeding van mijn vrouw gezien die ook voldoende vermogen opbrengt. Maar goed al met al hoop ik gewoon dat het die gare 12VHPWR stekker was :).

[ Voor 11% gewijzigd door D33F op 20-12-2023 18:43 ]

Lies are obvious to read because the truth is already written


Acties:
  • +3 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
https://www.techpowerup.c...-and-v1-1-angled-adapters

Vooor degene die deze adapters gebruiken..

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Tjongejonguh..... Veel mensen die deze hebben gekocht om problemen te voorkomen.
Echt niet best.

  • D33F
  • Registratie: September 2006
  • Laatst online: 11-09 09:52

D33F

Tweelingtemmer

meljor schreef op vrijdag 22 december 2023 @ 12:57:
[...]


Tjongejonguh..... Veel mensen die deze hebben gekocht om problemen te voorkomen.
Echt niet best.
@INNO3D

Nu na de PC behoorlijk intensief overuren te laten draaien deze week heb ik tot dusver geen enkel black screen issue meer gehad. Ook in Cities Skylines 2 gebeurde het toch wel vrij regelmatig terwijl ik hem nu de gehele week zonder problemen heb kunnen spelen. Uiteraard wil ik het nog niet jinxen maar voorzichtig begin ik toch wel te geloven dat de 12VHPWR adapter de boosdoener was.

Vaak zijn het dus de sense pins die dit probleem veroorzaken heb ik begrepen.

Ook met de eerdere undervolt (die 6 maanden zonder problemen heeft gedraaid) blijft de boel tot dusver stabiel O+ (scheelt een hoop in TDP en warmte).

Maar eerlijk is eerlijk, wat een gedrocht blijkt die 12VHPRW stekker dan toch te zijn, het heeft in ieder geval al menigeen gebruiker tot waanzin gedreven (de black screens) of zelfs brand veroorzaakt bij de nodige 4090's.

Hier maar even een quote van een ander forum (wat bijna 100 pagina telt) m.b.t. het black screen issue.

"They didnt replicate my issue when I RMA'd my card but still sent a different one though the issue recurred.

Also happened with an MSI 4090 I tried separately.

Changed out each component at this point so it's hard to believe it's hardware:
I would have had to had a mobo issue, bought a new mobo different chipset and had the same issue, or same issue 3 different 4090s, 4 sets of RAM, etc.

Tried the -200mhz clock and -502memory yesterday and the menu on Vampire Survivor wouldn't load with the underclock which was also strange.

Never had such a baffling tech problem before it's maddening"

[ Voor 28% gewijzigd door D33F op 28-12-2023 18:42 ]

Lies are obvious to read because the truth is already written


  • trummel
  • Registratie: Juli 2010
  • Laatst online: 27-03 22:30
Zit te azen op een totale game setup upgrade. Het is nog wachten op de CES maar ik wil graag voor de nieuwe alienware 32” 4k 240hz gaan.

Volgens mij zijn echter de geruchten dat er veen verbeterde 4090 variant komt? Zie online filmpjes dat die cyberpunk trekt op 4k alles ultra rond de 80-90 fps.

Als ik nu in een high end systeem veel geld steekt beloofd dat nog niet echt houdbaarheid in de komende jaren .. dan is het wel 2 jaar wachten op de 5090 (want pas 2025 ..). Wat denken jullie?

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
4090 krijgt geen update, alleen de 4070, 4070ti en 4080.

Bovendien kan je altijd wel weer wachten op het volgende..... Wat voldoet NU? Dan koop je dat.
Zou je de 4070 of 4080 willen dat is nog even wachten dus wel raadzaam, verder niet.

ECHT nieuwe gpu's zijn idd nog zeker een jaar wachten.

  • trummel
  • Registratie: Juli 2010
  • Laatst online: 27-03 22:30
meljor schreef op donderdag 28 december 2023 @ 19:43:
4090 krijgt geen update, alleen de 4070, 4070ti en 4080.

Bovendien kan je altijd wel weer wachten op het volgende..... Wat voldoet NU? Dan koop je dat.
Zou je de 4070 of 4080 willen dat is nog even wachten dus wel raadzaam, verder niet.

ECHT nieuwe gpu's zijn idd nog zeker een jaar wachten.
Ja, het is meer dat de 4090 nu ook net niet lijkt te voldoen aan de 100+ fps eis op 4k voor de high end games. Laat staan over 2-3 jaar. Aan de andere kant kom ik van een setup met 1080p, dus dat is al een hele upgrade.

[ Voor 7% gewijzigd door trummel op 28-12-2023 19:57 ]


  • JDx
  • Registratie: Januari 2007
  • Laatst online: 20-10-2024
meljor schreef op donderdag 28 december 2023 @ 19:43:
4090 krijgt geen update, alleen de 4070, 4070ti en 4080.

Bovendien kan je altijd wel weer wachten op het volgende..... Wat voldoet NU? Dan koop je dat.
Zou je de 4070 of 4080 willen dat is nog even wachten dus wel raadzaam, verder niet.

ECHT nieuwe gpu's zijn idd nog zeker een jaar wachten.
Dat zei men een jaar geleden ook, zelfs 2 jaar geleden, nu al meer dan 2 jaar super blij met een 3060 Ti van september 2021 voor 770 euro geloof ik. Geweldige upgrade vanaf de 980.

Ik snap niet waarom mensen die niet eens een 30 serie hebben nu afgeven op de 40 serie, ja maar zo weinig winst hier en daar, het ligt er totaal aan waar je vandaan komt en wat je budget is. Op basis daarvan zoek je het beste uit wat je kan krijgen.

Het is al bijna weer vrijdag, dus nog een paar dagen en we weten meer, ik ga echt geen 1000+ neerleggen voor een GPU nu, dat wilde ik wel toen je nog kon minen, had de 3060 Ti achteraf bijna gratis. Nu heb ik voor mezelf een grens gelegd, komt het zo ver, dan komt die kaart er, zo niet, dan niet.

Draai je nog een 980/1070 of iets anders ouds, dan is een 4060 of een andere low end kaart ook al een hele upgrade voor je. Persoonlijk ga ik voor de 4070 onder de 600 (vanwege komst Super) of een 4070 Ti Super (ivm 16GB) onder de 900, maar dan wel een triple fan AIB die me aan staat zoals de Asus TUF Gaming.

Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
trummel schreef op donderdag 28 december 2023 @ 19:53:
[...]


Ja, het is meer dat de 4090 nu ook net niet lijkt te voldoen aan de 100+ fps eis op 4k voor de high end games. Laat staan over 2-3 jaar. Aan de andere kant kom ik van een setup met 1080p, dus dat is al een hele upgrade.
En dan komt de 5090 maar worden games ook weer zwaarder...... Het blijft een cirkel.

Vergeet even niet dat 4k maar liefst 4x zoveel pixels is om te renderen. En ook op een 4K monitor is high ipv ultra settings een optie of zelfs 1440p voor die enkele game die het niet trekt.

Acties:
  • +4 Henk 'm!

  • Ponymaster
  • Registratie: Juli 2005
  • Laatst online: 30-06 16:56
meljor schreef op vrijdag 22 december 2023 @ 12:57:
[...]


Tjongejonguh..... Veel mensen die deze hebben gekocht om problemen te voorkomen.
Echt niet best.
Inderdaad en na het ontvangst van de mail van Cablemod met het advies om de adapter te verwijderen was ik helaas te laat. Mijn Asus rog strix RTX4090 was dus al ruim een half 6 jaar voorzien van deze Cablemod adapter. Ik wilde de bijgeleverde kabel van Asus niet gebruiken om dat ik deze in een te scherpe hoek moest buigen, dus vandaar meteen voor de 180 graden Cablemod adapter gekozen. Tussendoor heb ik regelmatig gecontroleerd of de adapter en kabel goed aangesloten waren op de RTX4090. En ik kan jullie verzekeren dat deze altijd er superstrak in heeft gezeten zonder enige speling.

Gisteren kwam mijn Lian Li vertical GPU mount binnen, zodat ik mijn RTX4090 vertical kon plaatsen ipv horizontaal. Dan is er wel ruimte om een normale kabel zonder adapter te gebruiken. Ik wilde de adapter uit de RTX4090 halen maar ik merkte dat deze opeens heel erg vast zat (bij vorige checks niet) en tot mijn schrik zag ik dat de boel gesmolten was. Een deel van het plastic van de Cablemod adapter zit nu gesmolten in mijn 12VHPWR connector van de RTX4090. Hierdoor kan ik er geen andere kabel meer in stoppen.

Waar ik voorheen altijd dacht dat dit een user error zou zijn, ben ik nu keihard met de neus op de feiten gedrukt. Het is nu dus mij ook overkomen en ik zou niet weten hoe ik dit zou moeten hebben voorkomen. Tja, wellicht door iets eerder die vertical GPU mount aan te schaffen. Ik heb tickets bij Cablemod en Asus aangemaakt. Ben benieuwd hoe dit gaat aflopen.

Afbeeldingslocatie: https://tweakers.net/i/KRahkzQWXVaOh6rSxAGWFdSEzSE=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/4Y0X4ohTwhgKrLxyKjJOqcGW.jpg?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/jV8FqsGAbeXIo5J8lmDsDt5qg7Q=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/cp0QIS8pyJWhF2t7zXVd7NiU.jpg?f=user_large

Acties:
  • 0 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 13:26
Jakkes, dat is ook weer problematisch. Heeft er iemand weet van of er ook andere kaarten dan de 4090 zijn die te maken hebben gehad met smeltende connectoren?

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • 0 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
nzall schreef op vrijdag 29 december 2023 @ 10:13:
Jakkes, dat is ook weer problematisch. Heeft er iemand weet van of er ook andere kaarten dan de 4090 zijn die te maken hebben gehad met smeltende connectoren?
kijk maar van die repair video's online,,daar komen ze helaas wel vaker voorbij,het is gewoon een waardeloos systeem.Er hoeft maar iets een slecht contact te zijn en er word zoveel hitte ontwikkeld dat het spul smelt

Dus dan bedoel ik zonder die cable mod adapter

Acties:
  • 0 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
Ponymaster schreef op vrijdag 29 december 2023 @ 09:23:
[...]


Inderdaad en na het ontvangst van de mail van Cablemod met het advies om de adapter te verwijderen was ik helaas te laat. Mijn Asus rog strix RTX4090 was dus al ruim een half 6 jaar voorzien van deze Cablemod adapter. Ik wilde de bijgeleverde kabel van Asus niet gebruiken om dat ik deze in een te scherpe hoek moest buigen, dus vandaar meteen voor de 180 graden Cablemod adapter gekozen. Tussendoor heb ik regelmatig gecontroleerd of de adapter en kabel goed aangesloten waren op de RTX4090. En ik kan jullie verzekeren dat deze altijd er superstrak in heeft gezeten zonder enige speling.

Gisteren kwam mijn Lian Li vertical GPU mount binnen, zodat ik mijn RTX4090 vertical kon plaatsen ipv horizontaal. Dan is er wel ruimte om een normale kabel zonder adapter te gebruiken. Ik wilde de adapter uit de RTX4090 halen maar ik merkte dat deze opeens heel erg vast zat (bij vorige checks niet) en tot mijn schrik zag ik dat de boel gesmolten was. Een deel van het plastic van de Cablemod adapter zit nu gesmolten in mijn 12VHPWR connector van de RTX4090. Hierdoor kan ik er geen andere kabel meer in stoppen.

Waar ik voorheen altijd dacht dat dit een user error zou zijn, ben ik nu keihard met de neus op de feiten gedrukt. Het is nu dus mij ook overkomen en ik zou niet weten hoe ik dit zou moeten hebben voorkomen. Tja, wellicht door iets eerder die vertical GPU mount aan te schaffen. Ik heb tickets bij Cablemod en Asus aangemaakt. Ben benieuwd hoe dit gaat aflopen.

[Afbeelding]

[Afbeelding]
knap waardeloos man,denk je het goed te goed en zo voorzichtig mogelijk te zijn.
Ik zou op zoek gaan naar een repair shop die de kaart kan repareren.dat kan namelijk wel.

Ik weet niet of er een repair shop in nl is die dit doet

Asus of cablemod dit gaan oplossen,ik ben benieuwd ook daarna

Acties:
  • 0 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 13:26
freaky35 schreef op vrijdag 29 december 2023 @ 10:23:
[...]


kijk maar van die repair video's online,,daar komen ze helaas wel vaker voorbij,het is gewoon een waardeloos systeem.Er hoeft maar iets een slecht contact te zijn en er word zoveel hitte ontwikkeld dat het spul smelt

Dus dan bedoel ik zonder die cable mod adapter
Ja, maar wat ik bedoel: gaat het hierbij enkel over de 4090 topmodellen met een verbruik van 450W of meer, en enkel over kaarten die gebruik maken van een 3rd party adapter? Of zijn er ook berichten van 4070/Ti en 4080 kaarten met officiële Nvidia adapters of 1st party PSU kabels die beschadigd geraken?

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • 0 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
nzall schreef op vrijdag 29 december 2023 @ 10:28:
[...]


Ja, maar wat ik bedoel: gaat het hierbij enkel over de 4090 topmodellen met een verbruik van 450W of meer, en enkel over kaarten die gebruik maken van een 3rd party adapter? Of zijn er ook berichten van 4070/Ti en 4080 kaarten met officiële Nvidia adapters of 1st party PSU kabels die beschadigd geraken?
Alleen 4090,heb ik voorbij zien komen.tot nu toe.
Dus dat weet ik niet zeker,ik gok dat die kans minder is door wat je zegt dat ze een stuk minder watts verstoken

Acties:
  • 0 Henk 'm!

  • Ponymaster
  • Registratie: Juli 2005
  • Laatst online: 30-06 16:56
freaky35 schreef op vrijdag 29 december 2023 @ 10:26:
[...]


knap waardeloos man,denk je het goed te goed en zo voorzichtig mogelijk te zijn.
Ik zou op zoek gaan naar een repair shop die de kaart kan repareren.dat kan namelijk wel.

Ik weet niet of er een repair shop in nl is die dit doet

Asus of cablemod dit gaan oplossen,ik ben benieuwd ook daarna
Ik wacht eerst wel af wat Cablemod en Asus te zeggen hebben. Ben niet van plan om voor de kosten op te draaien. Cablemod heeft me al gevraagd om foto’s en facturen van alles op te sturen.

Ben wel benieuwd of er andere Tweakers zijn die hetzelfde ervaren hebben en hoe dat bij hun is opgelost. Ik kan op internet überhaupt weinig vinden hoe alle gevallen oplost zijn. Wellicht toch gevalletje garantie (hoop ik).

Acties:
  • +1 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
Ponymaster schreef op vrijdag 29 december 2023 @ 10:38:
[...]


Ik wacht eerst wel af wat Cablemod en Asus te zeggen hebben. Ben niet van plan om voor de kosten op te draaien. Cablemod heeft me al gevraagd om foto’s en facturen van alles op te sturen.

Ben wel benieuwd of er andere Tweakers zijn die hetzelfde ervaren hebben en hoe dat bij hun is opgelost. Ik kan op internet überhaupt weinig vinden hoe alle gevallen oplost zijn. Wellicht toch gevalletje garantie (hoop ik).
Houd ons op de hoogte als je wilt,ik ben benieuwd .
Ik hoop op een goede afloop natuurlijk in elk geval

Acties:
  • 0 Henk 'm!

  • D33F
  • Registratie: September 2006
  • Laatst online: 11-09 09:52

D33F

Tweelingtemmer

Ponymaster schreef op vrijdag 29 december 2023 @ 10:38:
[...]


Ik wacht eerst wel af wat Cablemod en Asus te zeggen hebben. Ben niet van plan om voor de kosten op te draaien. Cablemod heeft me al gevraagd om foto’s en facturen van alles op te sturen.

Ben wel benieuwd of er andere Tweakers zijn die hetzelfde ervaren hebben en hoe dat bij hun is opgelost. Ik kan op internet überhaupt weinig vinden hoe alle gevallen oplost zijn. Wellicht toch gevalletje garantie (hoop ik).
Dit bevestigt maar weer eens mijn eerdere betoog over de 12VHPWR stekker.. Man wat knap zuur is dit toch en het blijkt maar weer dat het hier toch echt om een design fout gaat en niet per se een gebruikersfout.

In mijn geval met de 4070TI gelukkig geen gesmolten connector maar wel de nodige stabiliteitsissues / black screens toen de adapter toch niet meer helemaal koosjer bleek te zijn.

Ik hoop voor je dat dit goed, snel en netjes voor je opgelost gaat worden, en laten we hopen dat we bij de 5xxx series toch een betere power delivery connector gaan krijgen..

Lies are obvious to read because the truth is already written


Acties:
  • 0 Henk 'm!

  • Slicey
  • Registratie: Oktober 2013
  • Laatst online: 12-09 15:32
nzall schreef op vrijdag 29 december 2023 @ 10:28:
[...]


Ja, maar wat ik bedoel: gaat het hierbij enkel over de 4090 topmodellen met een verbruik van 450W of meer, en enkel over kaarten die gebruik maken van een 3rd party adapter? Of zijn er ook berichten van 4070/Ti en 4080 kaarten met officiële Nvidia adapters of 1st party PSU kabels die beschadigd geraken?
Nee hoor op de Cablemod subreddit heb ik ook enkele 4080s en 4070 Ti's gezien die met cablemod adapter gesmolten waren.. Probleem komt het meest voor bij 4090 maar niet exclusief.

Acties:
  • 0 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
Als cablemod aangeeft ze niet meer te gebruiken,dan zou ik deze er soweiso tussenuit halen eerlijk gezegd.

Geen garantie natuurlijk,maar wel minder risico op.
Hoe meer verbindingen/overgangen je hebt,hoe groter de kans is op problemen.

En als de fabrikant al aangeeft ze niet meer te gebruiken,dan had ik het wel geweten

[ Voor 53% gewijzigd door freaky35 op 29-12-2023 11:31 ]


Acties:
  • 0 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 10-09 19:12
nzall schreef op vrijdag 29 december 2023 @ 10:28:
[...]


Ja, maar wat ik bedoel: gaat het hierbij enkel over de 4090 topmodellen met een verbruik van 450W of meer, en enkel over kaarten die gebruik maken van een 3rd party adapter? Of zijn er ook berichten van 4070/Ti en 4080 kaarten met officiële Nvidia adapters of 1st party PSU kabels die beschadigd geraken?
Heb nog geen voorbeelden gezien van kaarten met een 12VHPWR kabel direct van PSU naar GPU. Maar die PSU's zijn natuurlijk ook een stuk minder in omloop dan deze cablemod en de bij de kaarten geleverde PCI-E adapters.

En ja deze adapters hebben duidelijk een productie fout dus zo snel mogelijk stoppen met het gebruik ervan ongeacht welke kaart je hebt.

Acties:
  • +4 Henk 'm!

  • Ponymaster
  • Registratie: Juli 2005
  • Laatst online: 30-06 16:56
freaky35 schreef op vrijdag 29 december 2023 @ 10:43:
[...]


Houd ons op de hoogte als je wilt,ik ben benieuwd .
Ik hoop op een goede afloop natuurlijk in elk geval
Asus heeft ook gereageerd. Ze sturen me door naar de verkopende partij en dit geval is dat Proshop. Ik ga een RMA indienen. Ik houd jullie op de hoogte.

Update van Cablemod:
Ze geven me 2 opties. Of contact opnemen met Asus en een verzoek op RMA doen, of de GPU gaat op kosten van Cablemod naar een repair shop. Inmiddels is de GPU al richting Proshop voor een RMA afhandeling. Daar had ik net wat meer vertrouwen in.

[ Voor 25% gewijzigd door Ponymaster op 29-12-2023 17:10 ]


Acties:
  • 0 Henk 'm!

  • sacaji
  • Registratie: Januari 2009
  • Laatst online: 13:35
Succes! Lange tijd niet echt meer wat gezien of gehoord over dit, maar 2000€ en dat dit kan gebeuren… ik wacht wel de volgende generatie

Acties:
  • 0 Henk 'm!

  • DannyXP1600
  • Registratie: Januari 2002
  • Laatst online: 17:23
sacaji schreef op vrijdag 29 december 2023 @ 11:57:
Succes! Lange tijd niet echt meer wat gezien of gehoord over dit, maar 2000€ en dat dit kan gebeuren… ik wacht wel de volgende generatie
Als ze de volgende generatie weer zoveel watt verstoken (of meer?) en ze dan weer deze connector gebruiken, dan zal het weinig nut hebben om op de volgende generatie te wachten. Tenminste, wat smeltende connectors betreft dan...

Acties:
  • 0 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 10-09 19:12
sacaji schreef op vrijdag 29 december 2023 @ 11:57:
Succes! Lange tijd niet echt meer wat gezien of gehoord over dit, maar 2000€ en dat dit kan gebeuren… ik wacht wel de volgende generatie
De meeste kaarten hebben al een aanpassing van de connector gekregen. De 12V-2x6 is nu standaard op de meeste kaarten. Deze heeft ook geen problemen als de kabel er niet helemaal goed ingedrukt is.

Acties:
  • 0 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 13:26
Slicey schreef op vrijdag 29 december 2023 @ 11:21:
[...]

Nee hoor op de Cablemod subreddit heb ik ook enkele 4080s en 4070 Ti's gezien die met cablemod adapter gesmolten waren.. Probleem komt het meest voor bij 4090 maar niet exclusief.
Zijn er ook verhalen van mensen die een 4070 non-TI gebruiken met de bijgeleverde adapter? Mijn 4070 Gaming OC heb ik via de power slider naar 260W kunnen trekken, maar ik gebruik daarvoor de bijgeleverde splitter met 2 aparte 8pin kabels (geen daisychaining).

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • +1 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
die adapters ook de bijbehorende zijn tricky,sowieso heb je dikke kans dat die veel stress veroorzaken op de aansluting op de kaart zelf, als die er voor je voeding is dan zou ik een kabel uit 1 geheel nemen.Dus geen aparte adapters ect

Hoe minder extra connecties hoe beter

[ Voor 7% gewijzigd door freaky35 op 29-12-2023 21:47 ]


Acties:
  • 0 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 13:26
freaky35 schreef op vrijdag 29 december 2023 @ 21:30:
die adapters ook de bijbehorende zijn tricky,sowieso heb je dikke kans dat die veel stress veroorzaken op de aansluting op de kaart zelf, als die er voor je voeding is dan zou ik een kabel uit 1 geheel nemen.Dus geen aparte adapters ect

Hoe minder extra connecties hoe beter
Dus een kabel die zichzelf splitst naar 2 aparte aansluitingen op de voeding zelf, in plaats van een adapter die naar 2 kabels splitst? ik zal dat eens bekijken. Ik zal dan wel de kooi van de harde schijven eruit moeten halen vrees ik, anders ga ik die kabels er met geen mogelijkheid in krijgen...

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • 0 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
nzall schreef op vrijdag 29 december 2023 @ 22:33:
[...]


Dus een kabel die zichzelf splitst naar 2 aparte aansluitingen op de voeding zelf, in plaats van een adapter die naar 2 kabels splitst? ik zal dat eens bekijken. Ik zal dan wel de kooi van de harde schijven eruit moeten halen vrees ik, anders ga ik die kabels er met geen mogelijkheid in krijgen...
Heb je een foto van hoe je het nu hebt zitten?

Acties:
  • +1 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 13:26
freaky35 schreef op vrijdag 29 december 2023 @ 22:35:
[...]


Heb je een foto van hoe je het nu hebt zitten?
neen, enkel van de 12VHPWR aansluiting zelf. Niet van de aansluitingen tussen de adapter en de kabels, en ook niet van de kabels in de voeding. En ik zit momenteel in het buitenland voor de komende 2 weken, dus ik kan niet direct een foto maken...

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • +1 Henk 'm!

  • D33F
  • Registratie: September 2006
  • Laatst online: 11-09 09:52

D33F

Tweelingtemmer

Ik denk dat @freaky35 deze kabel bedoelt.

Afbeeldingslocatie: https://tweakers.net/i/COmr_TY0KywE0tWaQumPTGomlC0=/full-fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/orDddNDQwtJEnv4RjEiTupkz.png?f=user_large

Bovenste stekker gaat direct in jouw GPU en onderste twee stekkers direct in jouw PSU.

Lies are obvious to read because the truth is already written


Acties:
  • 0 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
jep zo'n kabel bedoel ik inderdaad

[ Voor 41% gewijzigd door freaky35 op 30-12-2023 00:01 ]


Acties:
  • 0 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 13:26


Iemand heeft de 4070 Super gesimuleerd door een 4070 Ti te underclocken. Zou ongeveer 5-6% trager zijn dan de 4070 Ti.

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • 0 Henk 'm!

  • kyrillajax
  • Registratie: Oktober 2018
  • Laatst online: 12-09 08:23
nzall schreef op zondag 31 december 2023 @ 14:33:
[YouTube: 4070 Super (emulated) vs 4070 Ti. What to expect from this new GPU? Comparison in 4 new games.]

Iemand heeft de 4070 Super gesimuleerd door een 4070 Ti te underclocken. Zou ongeveer 5-6% trager zijn dan de 4070 Ti.
Mee eens, ik had al een verwachting dat de RTX 4070 super ongeveer 17-18% sneller zou zijn dan de RTX 4070.

Acties:
  • 0 Henk 'm!

  • Breud
  • Registratie: November 2020
  • Laatst online: 11-09 14:54
*knip* offtopic

[ Voor 89% gewijzigd door br00ky op 31-12-2023 15:59 ]

WP: ZCR-140Y-300D / RST30C-VM2ED + PUHZ-SHW140 YHA PV: 4350 WP


Acties:
  • 0 Henk 'm!

  • anothergenius
  • Registratie: Augustus 2017
  • Laatst online: 12-09 20:59
Ik lees veel problemen met stekkers voor de 4000 serie, en die "sense" draad bevalt me maar niet.

Ik begin heel hard te twijfelen of dit aan mijn kabel ligt, zelf heb ik een Asus Rog Strix 4080 OC en ik ben nu al dagen het proberen om deze aan de praat te krijgen, alleen maar black screen. Heel sporadisch krijg ik eens een beeld en loopt alles vast, 1x heeft alles 15 min soepel gedraaid.

Ik maak gebruik van de MSI MPG A850G PCIE5 voeding, en gebruik daarbij ook de originele geleverde 12VHPWR kabel van MSI.

Zou ik ook een ander merk 12VHPWR kabel kunnen gebruiken om het probleem met de kabel uit te sluiten?
Welke raden jullie mij eventueel aan?

Acties:
  • 0 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
Als het goed is , is er zo’n adapter bij je gpu geleverd dat je de kaart, die kan je ook proberen kijken of dat wel werkt, die sluit je aan op pcie kabels

Acties:
  • 0 Henk 'm!

  • anothergenius
  • Registratie: Augustus 2017
  • Laatst online: 12-09 20:59
freaky35 schreef op zondag 31 december 2023 @ 22:04:
Als het goed is , is er zo’n adapter bij je gpu geleverd dat je de kaart, die kan je ook proberen kijken of dat wel werkt, die sluit je aan op pcie kabels
Ik heb de nvidia adapter geprobeerd en de 12VHPWR van MSI geprobeerd.

Ik zou graag nog een andere kabel proberen als laatste test. Welke 12VHPWR kabel van een ander merk kan ik gebruiken in mijn MSI voeding?

Acties:
  • +1 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
Daar moet je mee uitkijken, ik zou het echt houden bij kabels waarvan je zeker weet dat dat compatible is met de MSI.

Acties:
  • +3 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
Inclusief oproep aan nvidia op het einde.

fwiw:

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
freaky35 schreef op maandag 1 januari 2024 @ 02:05:
Daar moet je mee uitkijken, ik zou het echt houden bij kabels waarvan je zeker weet dat dat compatible is met de MSI.
Zelf heb ik de Thermaltake toughpower gf3 waarvan de kabel duidelijk vast klikt en niet scheef kan zitten als er druk op komt. Ik heb een 12vhpwr kabel veel liever dan 2 of 3 8 pins.

Acties:
  • 0 Henk 'm!

  • anothergenius
  • Registratie: Augustus 2017
  • Laatst online: 12-09 20:59
freaky35 schreef op maandag 1 januari 2024 @ 02:05:
Daar moet je mee uitkijken, ik zou het echt houden bij kabels waarvan je zeker weet dat dat compatible is met de MSI.
Ja, daar was ik dus al bang voor.

Zo zonde dat een simpele connector alles verpest!

Acties:
  • 0 Henk 'm!

  • Mizgala28
  • Registratie: Oktober 2010
  • Laatst online: 12-09 16:28
Ik heb maar (want lager stroomverbruik) een 4070 Ti icm met een Seasonic kabel (los bij gekocht)

Maar ook dan kreeg ik in het begin geen fijn gevoel met de connector, iedere keer maar kijken of alles goed gaat in de case.

Maar ook als ik mijn PC van binnen schoonmaak (stof en dergelijke) heb ik voor het eerst in jaren de GPU maar erin gelaten, normaal koppel ik de kabels los, haal dat ding eruit en maak alles grondig schoon.

Hetzelfde bij de PC van mijn partner (ook 4070 TI), alleen daar is een kabel spaghetti gaande aangezien de kabel die ik heb, niet compatible is met de oudere voeding van mijn partner.

Maar ik zie Nvidia niet terug gaan naar de oude situatie, sterker nog ik zie AMD het nog overnemen ook.

En voordat ik die video zag dacht ik nog van "er was niks mis met de oude (6+2 / 8-pin) situatie, volgens mij kon er zelfs meer stroom doorheen ook", en na die video zuchtte ik.

En je zal maar een 4090 hebben, steeds het gevoel dat je kaart kapot kan of erger, dat je huis in de fik vliegt omdat de kabel er niet goed in zat.

Dit is geen kwestie van "kabel zit verkeerd en de boel werkt niet", de gevolgen kunnen veel erger zijn.

Maar wat boeit dat Nvidia nou, geld stroomt gewoon binnen.

Acties:
  • 0 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 13:26
Mizgala28 schreef op maandag 1 januari 2024 @ 22:50:
[...]


Ik heb maar (want lager stroomverbruik) een 4070 Ti icm met een Seasonic kabel (los bij gekocht)

Maar ook dan kreeg ik in het begin geen fijn gevoel met de connector, iedere keer maar kijken of alles goed gaat in de case.

Maar ook als ik mijn PC van binnen schoonmaak (stof en dergelijke) heb ik voor het eerst in jaren de GPU maar erin gelaten, normaal koppel ik de kabels los, haal dat ding eruit en maak alles grondig schoon.

Hetzelfde bij de PC van mijn partner (ook 4070 TI), alleen daar is een kabel spaghetti gaande aangezien de kabel die ik heb, niet compatible is met de oudere voeding van mijn partner.

Maar ik zie Nvidia niet terug gaan naar de oude situatie, sterker nog ik zie AMD het nog overnemen ook.

En voordat ik die video zag dacht ik nog van "er was niks mis met de oude (6+2 / 8-pin) situatie, volgens mij kon er zelfs meer stroom doorheen ook", en na die video zuchtte ik.

En je zal maar een 4090 hebben, steeds het gevoel dat je kaart kapot kan of erger, dat je huis in de fik vliegt omdat de kabel er niet goed in zat.

Dit is geen kwestie van "kabel zit verkeerd en de boel werkt niet", de gevolgen kunnen veel erger zijn.

Maar wat boeit dat Nvidia nou, geld stroomt gewoon binnen.
Iedereen roept op Nvidia omdat zij de eerste zijn die deze connector gebruiken, maar ik zie niemand ooit iets zeggen over Intel of de meer dan 800 andere bedrijven van de PCI-SIG die OOK bezig zijn geweest met deze standaard.

en deze Special Interest Group heeft ondertussen als reactie op deze berichten al een revisie gemaakt van deze connector met de 12V 2x6 connector waarbij dit probleem zou moeten opgelost zijn. En ik geloof zelfs dat deze revisie compatibel is met de eerste versie.

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • +4 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
nzall schreef op maandag 1 januari 2024 @ 23:15:
Iedereen roept op Nvidia omdat zij de eerste zijn die deze connector gebruiken, maar ik zie niemand ooit iets zeggen over Intel of de meer dan 800 andere bedrijven van de PCI-SIG die OOK bezig zijn geweest met deze standaard.
Nope, zo werkt dat niet.

Deze stekker komt volledig bij Nvidia (met ontwerpen van Amphenol) vandaan, verder heeft er niemand daadwerkelijk aan gewerkt, vergeet niet dat zij deze stekker al in 2020 gebruikten - de officiële 12VHPWR stamt pas van eind 2021. Vervolgens heeft Nvidia samen met Dell (die hebben graag "eigen" stekkertjes) een ECR voor PCIe 5.0 ingediend bij PCI-SIG.

Wat dat betekent is dat de leden van PCI-SIG (die 800+ bedrijven waar je het over hebt) vervolgens commentaar en opmerkingen kunnen plaatsen, maar een enkel lid (of zelfs meerdere) kan een ECR niet blokkeren. In de praktijk worden maar weinig ECR's afgewezen.

Het lidmaatschap van PCI-SIG kun je ook niet omheen als je iets met hun standaarden wil doen; 95% van de leden zijn bedrijven die enkel toegang tot de specs nodig hebben omdat ze er aan moeten voldoen en je anders niet je goedkeuring kunt krijgen. Die 800 bedrijven zijn verder ook niet allemaal bedrijven die daadwerkelijk iets ontwikkelen; een groot deel zijn marketing en consultancy bedrijven, waarbij de huidige Executive Director van PCI-SIG zo'n marketing lul is. Zijn achtergrond is een MBA (bedrijfskunde) en een fucking kunstgeschiedenis master. Niet bepaald relevant voor hetgeen PCI-SIG doet.

Intel heeft dit ding dan ook enkel aan ATX 3.0 toegevoegd juist omdat hij in de PCIe spec terecht is gekomen.
en deze Special Interest Group heeft ondertussen als reactie op deze berichten al een revisie gemaakt van deze connector met de 12V 2x6 connector waarbij dit probleem zou moeten opgelost zijn. En ik geloof zelfs dat deze revisie compatibel is met de eerste versie.
Het enige wat die ECR deed was:

- Sense pinnen 0,1mm korter
- Terminals 0,15mm langer

Wat dat betekent is dat een ietwat losse stekker nu iets sneller gedetecteerd kan worden. Wat het niet op lost, is dat je nog steeds op moet letten met buigen, er nog steeds veel te veel warmte in een bijzonder klein gebied vast komt te zitten en dat er 0,0 marge is. Het kán allemaal wel, maar dit ding is dusdanig ontworpen dat áls er iets mis gaat, het ook meteen catastrofaal mis gaat. Alles (ontwerp van behuizing + terminals én de materialen daarvoor) wordt tot het uiterste gepusht, wat voor een consumenten product gewoon absurd is.

Elektrisch gezien kan het allemaal. Maar in consumenten producten moet je marges hebben én moet het idiot-proof zijn. En deze stekker doet geen van beide.

Het ergste is dat het idee hartstikke goed is. Een kleinere stekker voor álle videokaarten t/m 600W, waarbij er dan ook nog een methode is (hoe lullig die methode ook is) om te beperken wat er getrokken mág worden van de PSU? Top! Maar had er dan daadwerkelijk wat werk in gestoken. 24V toevoegen aan ATX, een variant van de 10-pin Mini-Fit Jr met de sense pinnen er bovenop. Met 5 actieve terminals krijg je dan 5 * 24V * 6A = 720W met dezelfde flut draadjes waar de huidige spec op berekend is. Die stekker zou zo'n 3mm breder zijn dan de huidige 12VHPWR, maar wel met een draad minder, minder stroom en warmte per draad + pin én meer ruimte om die warmte kwijt te raken.

Probleem daarmee is het allereerste stukje: 24V toevoegen aan de ATX spec. Dat betekent dat géén van de huidige PSU's compatible zouden zijn. Maar als ze het verbruik op deze manier omhoog willen blijven pompen, zal dat uiteindelijk wel moeten. Het is niet voor niets dat onze CPU's tegenwoordig ook 12V input krijgen, in plaats van 5V (of zelfs 3,3V!). Zelfs 19V (wat veel voedingen intern al doen) zou al een verbetering zijn; met een 12-pins Mini-Fit krijg je dan 6 * 19V * 6A = 684W. En die stekker is slechts zo'n 7-8mm breder dan deze.

Acties:
  • 0 Henk 'm!

  • kyrillajax
  • Registratie: Oktober 2018
  • Laatst online: 12-09 08:23
Modbreak:Afgesplitst uit het levertijdentopic.
Viscerous schreef op donderdag 4 januari 2024 @ 14:39:
[...]

Al was het niet verbijsterend veel, ik heb toevallig een 2080S en die was tegenover de oorspronkelijke 2080 op MSRP voor beide 30 euro goedkoper of iets dergelijks
Hoeveel beter was de prestaties van de 2080 super ten opzichte van de 2080? Vergeet ook niet dat de vanilla 4080 overpriced is en heel slecht verkoopt. Dus de 4080 kan dan een uitschieter zijn wat betreft de verbetering in prijs prestatie.

[ Voor 4% gewijzigd door br00ky op 05-01-2024 20:10 ]


Acties:
  • 0 Henk 'm!

  • Viscerous
  • Registratie: Juli 2007
  • Laatst online: 08-09 14:39
kyrillajax schreef op donderdag 4 januari 2024 @ 14:52:
[...]

Hoeveel beter was de prestaties van de 2080 super ten opzichte van de 2080? Vergeet ook niet dat de vanilla 4080 overpriced is en heel slecht verkoopt. Dus de 4080 kan dan een uitschieter zijn wat betreft de verbetering in prijs prestatie.
Dat was toen ook gemiddeld een 5-10% verbetering of iets dergelijks. Je hebt overigens wel gelijk hoor, heb zo het gevoel dat de 4080 minder goed verkoopt dan Nvidia zou willen. Maar goed, ontzettend veel concurrentie voelen ze volgens mij ook niet. Al helemaal nu de omzet van server/AI de gamingmarkt heeft ingehaald. De special address op Maandag is niet zo ver weg dus we zullen het zien.

Acties:
  • 0 Henk 'm!

  • kyrillajax
  • Registratie: Oktober 2018
  • Laatst online: 12-09 08:23
Viscerous schreef op donderdag 4 januari 2024 @ 15:01:
[...]

Dat was toen ook gemiddeld een 5-10% verbetering of iets dergelijks. Je hebt overigens wel gelijk hoor, heb zo het gevoel dat de 4080 minder goed verkoopt dan Nvidia zou willen. Maar goed, ontzettend veel concurrentie voelen ze volgens mij ook niet. Al helemaal nu de omzet van server/AI de gamingmarkt heeft ingehaald. De special address op Maandag is niet zo ver weg dus we zullen het zien.
5 tot 10% is nog redelijk aardig voor dezelfde prijs of net iets lager. De 4080 echter, heeft wel concurrentie. Namelijk de 7900 XTX. Gemiddeld presteert de 4080 iets minder dan de 7900 XTX en het kost ook een stuk meer met minder vram. Dus cocurrentie heeft de 4080 zeker wel, alleen de 4090 is de enige Nvidia kaart die geen concurrentie heeft.

Acties:
  • 0 Henk 'm!

  • bitshape
  • Registratie: Februari 2003
  • Niet online

bitshape

japanse vechtvis

Intel heeft toch een change voor de 12VHPWR aansluiting ingediend die het contactvlak van de stekker verbeterde? Ik vraag mij serieus af of PSU-fabrikanten met hun kabels deze change nu anno 2024 hebben overgenomen.
Intel recommends using 4-spring 12VHPWR connection over 3-dimple design.

Soon after the release of the first RTX 40 series GPUs, we heard several user reports of malfunctioning 12VHPWR connectors, leading to questions around the design of the connector. Nvidia stands by its design and it does appear that unseated cabled was the root cause behind the issues, but Intel has now begun recommending a 4-spring 12VHPWR connector design over the 3-dimple design.

...

it seems that Intel has finally decided that structure of the connector contact is also one of major problem.

According to the documentation, the company recommends using the 4-spring over the 3-dimple design to crimp the contacts inside the plug. Intel then explained that using the former method increases the contact area for electrical current flow inside the connector and reduces the temperature rise of each contact, reducing the risk of overheating and melting the connectors.

Intel's documentation suggests that there are some recognisable flaws in the design currently in use and importantly, there are ways to address them.
Afbeeldingslocatie: https://tweakers.net/i/vOdg5zNeiiTHBYuZc6M1RyPkqiU=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():fill(white):strip_exif()/f/image/6kkwy180TK6d3ypkicOGc0wm.webp?f=user_large
'3 Dimple' (oud) vs '4 Spring' (nieuw).

Ik heb een Seasonic Prime voeding waarvoor Seasonic een los te bestellen 12VHPWR kabel in z'n assortiment heeft, maar ik durf hem (nog) niet te bestellen want ik zit niet te wachten op een kabel met een designflaw (3 Dimple kabel). Misschien eens mailen met Seasonic techsupport of zij dat weten wat er gebruikt is voor hun kabel... :)

[ Voor 0% gewijzigd door bitshape op 05-01-2024 09:07 . Reden: typo ]

avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD


Acties:
  • 0 Henk 'm!

  • Cidious
  • Registratie: Mei 2005
  • Laatst online: 10-09 05:02

Cidious

The Bloody Gent

Werelds schreef op donderdag 4 januari 2024 @ 14:37:
[...]

Nope, zo werkt dat niet.

Deze stekker komt volledig bij Nvidia (met ontwerpen van Amphenol) vandaan, verder heeft er niemand daadwerkelijk aan gewerkt, vergeet niet dat zij deze stekker al in 2020 gebruikten - de officiële 12VHPWR stamt pas van eind 2021. Vervolgens heeft Nvidia samen met Dell (die hebben graag "eigen" stekkertjes) een ECR voor PCIe 5.0 ingediend bij PCI-SIG.

Wat dat betekent is dat de leden van PCI-SIG (die 800+ bedrijven waar je het over hebt) vervolgens commentaar en opmerkingen kunnen plaatsen, maar een enkel lid (of zelfs meerdere) kan een ECR niet blokkeren. In de praktijk worden maar weinig ECR's afgewezen.

Het lidmaatschap van PCI-SIG kun je ook niet omheen als je iets met hun standaarden wil doen; 95% van de leden zijn bedrijven die enkel toegang tot de specs nodig hebben omdat ze er aan moeten voldoen en je anders niet je goedkeuring kunt krijgen. Die 800 bedrijven zijn verder ook niet allemaal bedrijven die daadwerkelijk iets ontwikkelen; een groot deel zijn marketing en consultancy bedrijven, waarbij de huidige Executive Director van PCI-SIG zo'n marketing lul is. Zijn achtergrond is een MBA (bedrijfskunde) en een fucking kunstgeschiedenis master. Niet bepaald relevant voor hetgeen PCI-SIG doet.

Intel heeft dit ding dan ook enkel aan ATX 3.0 toegevoegd juist omdat hij in de PCIe spec terecht is gekomen.


[...]

Het enige wat die ECR deed was:

- Sense pinnen 0,1mm korter
- Terminals 0,15mm langer

Wat dat betekent is dat een ietwat losse stekker nu iets sneller gedetecteerd kan worden. Wat het niet op lost, is dat je nog steeds op moet letten met buigen, er nog steeds veel te veel warmte in een bijzonder klein gebied vast komt te zitten en dat er 0,0 marge is. Het kán allemaal wel, maar dit ding is dusdanig ontworpen dat áls er iets mis gaat, het ook meteen catastrofaal mis gaat. Alles (ontwerp van behuizing + terminals én de materialen daarvoor) wordt tot het uiterste gepusht, wat voor een consumenten product gewoon absurd is.

Elektrisch gezien kan het allemaal. Maar in consumenten producten moet je marges hebben én moet het idiot-proof zijn. En deze stekker doet geen van beide.

Het ergste is dat het idee hartstikke goed is. Een kleinere stekker voor álle videokaarten t/m 600W, waarbij er dan ook nog een methode is (hoe lullig die methode ook is) om te beperken wat er getrokken mág worden van de PSU? Top! Maar had er dan daadwerkelijk wat werk in gestoken. 24V toevoegen aan ATX, een variant van de 10-pin Mini-Fit Jr met de sense pinnen er bovenop. Met 5 actieve terminals krijg je dan 5 * 24V * 6A = 720W met dezelfde flut draadjes waar de huidige spec op berekend is. Die stekker zou zo'n 3mm breder zijn dan de huidige 12VHPWR, maar wel met een draad minder, minder stroom en warmte per draad + pin én meer ruimte om die warmte kwijt te raken.

Probleem daarmee is het allereerste stukje: 24V toevoegen aan de ATX spec. Dat betekent dat géén van de huidige PSU's compatible zouden zijn. Maar als ze het verbruik op deze manier omhoog willen blijven pompen, zal dat uiteindelijk wel moeten. Het is niet voor niets dat onze CPU's tegenwoordig ook 12V input krijgen, in plaats van 5V (of zelfs 3,3V!). Zelfs 19V (wat veel voedingen intern al doen) zou al een verbetering zijn; met een 12-pins Mini-Fit krijg je dan 6 * 19V * 6A = 684W. En die stekker is slechts zo'n 7-8mm breder dan deze.
Dank voor de lange en doorgrondende post rondom het euvel. Eindelijk iemand die de feiten goed op orde heeft en goed kan overbrengen in een overzichtelijke tekst. Dit probleem is helemaal zijn eigen leven gaan leiden omdat de verantwoordelijke partij ALTIJD de struisvogel aanpak heeft betreft alle problemen die het in de wereld brengt en liever achter gesloten deuren dit stilletjes probeert op te lossen. Ik snap het van een marketing standpunt, maar het is uiteraard enorm consument onvriendelijk. En zelfs de grotere review huizen en social media giganten durven niet echt duidelijk naar nVidia te wijzen door de verwarring rondom hoe de standaard in het leven is gekomen en wie er nu echt schuldig is.

Steve van GamersNexus heeft de consument ook geen goed gedaan door het maar als gebruikers error af te schrijven. Volgens mij is het zo dat als teveel gebruikers een te makkelijk een gebruikers error creeren dat dit een slecht ontwerp is. Hij is altijd zo doorgrondend met zijn onderzoek maar ik vind dit echt zijn grootste faal video van 2023. Althans zijn conclusie.

Blij dat er iets aan gedaan is maar Ik denk dat het nog steeds niet opgelost is. Het feit dat de officiele meegelevered kabels recht zijn en de 4090 kaarten zo enorm zijn betekent dat die inderdaad gebogen moeten worden om in de kast te passen. Vaak tegen het glas aan gedrukt. 90 graden adapters of PSU kabels lijken de oplossing te zijn maar ook hiervoor is niet een duidelijke standaard en CableMod heeft net al zijn adapters terug gehaald.

Feit dat de connector nogmaals vernieuwd is laat zien dat nVidia nog niet van plan is er vanaf te stappen. Wat opzich prima is als de problemen ook echt opgelost kunnen worden. Ik vind persoonlijk dat dubbele 8-pin meer dan prima was of een robustere 12(+4)pin.

Mijn 6900XT kan 480W trekken onder water en met de dubbele 8-pin van de reference PCB is dit nooit een probleem geweest met langdurig stressen van de kaart.

Mijn 4090 FE trekt tijdens gamen nooit echt meer dan 360-380W max load en meer richting de 320W met undervolt. De STRIX soortgelijke kaarten lopen meer risico met verhoogde power limieten en groteren fysieke omvang (kabel buigen).

R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38


Acties:
  • +1 Henk 'm!

  • Cidious
  • Registratie: Mei 2005
  • Laatst online: 10-09 05:02

Cidious

The Bloody Gent

bitshape schreef op donderdag 4 januari 2024 @ 19:23:
Intel heeft toch een change voor de 12VHPR aansluiting ingediend die het contactvlak van de stekker verbeterde? Ik vraag mij serieus af of PSU-fabrikanten met hun kabels deze change nu anno 2024 hebben overgenomen.


[...]


[Afbeelding]
'3 Dimple' (oud) vs '4 Spring' (nieuw).

Ik heb een Seasonic Prime voeding waarvoor Seasonic een los te bestellen 12VHPR kabel in z'n assortiment heeft, maar ik durf hem (nog) niet te bestellen want ik zit niet te wachten op een kabel met een designflaw (3 Dimple kabel). Misschien eens mailen met Seasonic techsupport of zij dat weten wat er gebruikt is voor hun kabel... :)
Er komt een nieuwe kabel aan inderdaad, maar ik kan je wel vertellen dat ik hun 12VPHR al maanden in gebruik heb met 4080 en 4090 zonder enige problemen. Dat ik geen problemen heb betekent niet dat het ontwerp foutloos is maar het is wel een indicatie dat het prima kan werken haha.

R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38


Acties:
  • 0 Henk 'm!

  • Cidious
  • Registratie: Mei 2005
  • Laatst online: 10-09 05:02

Cidious

The Bloody Gent

kyrillajax schreef op donderdag 4 januari 2024 @ 16:11:
[...]

5 tot 10% is nog redelijk aardig voor dezelfde prijs of net iets lager. De 4080 echter, heeft wel concurrentie. Namelijk de 7900 XTX. Gemiddeld presteert de 4080 iets minder dan de 7900 XTX en het kost ook een stuk meer met minder vram. Dus cocurrentie heeft de 4080 zeker wel, alleen de 4090 is de enige Nvidia kaart die geen concurrentie heeft.
De huidige 4080 is te duur. Maar ik moet eerlijk zeggen dat het de beste kaart is voor high-end gamen vandaag in de nvidia Line-up, Ik heb de 4080 FE en 4090 FE en ja de 4090 is sterker in sommige games. Hij is ook enorm CPU gelimiteerd nog steeds op 3440x1440 in veel games. Ik krijg amper 70-80% gebruik in UE5 games bijvoorbeeld met een 7800X3D. Waarbij de kaart maar zo'n 220-280W trekt. De 4080 draait veel mooier max gebruik bij hele deftige stroomverbruik waarden.

Dit phenomeen kan ik bij meerdere games terugvinden.

De 4090 is nog steeds de kaart voor de toekomst die waarschijnlijk met een Zen 5 upgrade voor mij en betere engine optimalisaties waarschijnlijk nog een boost krijgt.

De 4080 heeft 'maar' 16GB RAM maar de benodigde ram is vooral afhankelijk van hoeveel de XBOX en PS5 beschikbaar hebben. De devs optimaliseren voornamelijk hiervoor en porten dan naar PC met iets lossere resources vereisten. 16GB zal genoeg zijn tot tenminste 2026 wanneer de nieuwe console generaties verschijnen en dan duurt het nog een jaar minimaal voordat de game devs hier actief gebruik van willen maken omdat de games ook nog weer backwards compatible moeten zijn met de uitgaande generatie consoles.

Maar voor vandaag de dag en morgen lijken de 4070ti Super en 4080 Super echt de beste 'high-end' kaarten te gaan zijn voor de 'forseable future'

[ Voor 14% gewijzigd door br00ky op 05-01-2024 20:13 . Reden: Nav verplaatsen reacties voor de duidelijkheid quote toegevoegd ]

R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38


Acties:
  • +1 Henk 'm!

  • Van der Berg
  • Registratie: April 2014
  • Laatst online: 14:54
Je moet vooral kijken wat je met de kaart gaat doen en waar je op speelt. Ik kwam niet onderuit en bij mij was de RTX 4090 de juiste keuze in combinatie met mijn Ryzen 7 5800X.

Ik speel op 4K resolutie met een 144Hz refresh rate op een GIGABYTE M32U 32-inch monitor. Toen ik de benchmarks bekeek bleek toch dat een 4090 altijd erg goed deed en beter dan een 4080 16GB. Het prijskaartje tussen 4090 vs 4080 was behoorlijk, maar ik was bereid en nam de instapkaart de GIGIABYTE GeForce RTX 4090 24GB Gaming OC kaart. De GIGIABYTE GeForce RTX 4090 24GB Gaming OC kwam nog goed mee uit de reviews bij Tweakers.net. Het was een van de goedkoopste kaarten in mijn tijd €1.869 (6 mei 2023)

De 4080 zat vaak onder de 144 fps gemiddeld 120 fps. Een RTX 4090 zat vanaf 150 fps en hoger

Ik had hiervoor een MSI VENTUS OC RTX 2080 8GB (2019) de non-Super kaart in combinatie met een LG 27UD68P een 27-inch IPS 4K op 60Hz. Deze kaart had een Great Value Award Hardware.info. de kaart was toen €799. De reden van upgraden ik moest de instellingen dusdanig verlagen om bijna optimaal op 4K 144Hz te kunnen spelen

[ Voor 14% gewijzigd door Van der Berg op 05-01-2024 10:25 ]

X570 Aorus Pro - Ryzen 7 5800X- Noctua NH-U14S - FSP Hydro Ti PRO 1000W - 32GB DDR4 3600MHz C16 - GeForce RTX 4090 - 990 Pro 4TB - MSI MAG 321UP QD-OLED 4K/165Hz - 65" OLED LG B4 - Watch Ultra LTE - S24 Ultra 1TB - Tab S10+ 512/12GB - Buds 3 Pro - 22TB


Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Zelfs op 4k is de 4090 nog vaak cpu limited, zeker als je niet de snelste cpu hebt.

Voor het gemak ga ik er even vanuit dat de 8800x3d (of hoe hij ook maar gaat heten) circa15% sneller zal zijn dan een 7800x3d.

Als over een jaar een 5090 zal uitkomen wordt het probleem dus alleen maar groter.

Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
bitshape schreef op donderdag 4 januari 2024 @ 19:23:
Intel heeft toch een change voor de 12VHPWR aansluiting ingediend die het contactvlak van de stekker verbeterde? Ik vraag mij serieus af of PSU-fabrikanten met hun kabels deze change nu anno 2024 hebben overgenomen.
Slechts een aanbeveling en niet eens in de ATX spec zelf. De ATX spec verwijst altijd enkel naar de PCI-SIG specs.
Cidious schreef op vrijdag 5 januari 2024 @ 03:17:
Steve van GamersNexus heeft de consument ook geen goed gedaan door het maar als gebruikers error af te schrijven. Volgens mij is het zo dat als teveel gebruikers een te makkelijk een gebruikers error creeren dat dit een slecht ontwerp is. Hij is altijd zo doorgrondend met zijn onderzoek maar ik vind dit echt zijn grootste faal video van 2023. Althans zijn conclusie.
Zijn conclusie klopt gewoon, het is weldegelijk user error. Maar hij had, zoals bijvoorbeeld DerBauer nu doet, duidelijker moeten zijn over het gebrek aan marges met deze stekker en harder moeten zijn over het slechte ontwerp (zowel qua pinnen, maar ook de sluitlip die 0,0 speling laat en te strak is waardoor je die klik dus niet echt krijgt). En we trekken altijd de vergelijking met de PCIe stekkers (logisch), maar die marges zitten op alle stekkers in een PC. Zelfs de SATA stroom connector is bizar overbemeten. De stekker zelf (van Molex dus) mag 1.5A per pin hebben; er zitten 3 3,3V, 3 5V en 3 12V pinnen in, dus dat is in theorie maximaal (3 * 1,5A * 3,3V) + (3 * 1,5A * 5V) + (3 * 1,5A * 12V) = 14,85W + 22,5W + 54W = 91,35W. SATA spec zegt maximaal 54W in totaal, wat dus equivalent is aan 3x1,5A op de 12V rail. Dat is in een stekker die veel strakker gekrimpt zit en waar je het over vrij lage vermogens hebt - en toch laten ze 70% marge.

Ik vind het altijd zo grappig als mensen bang zijn dat draden "doorbranden" door te veel stroom, terwijl juist de draden bizar veel kunnen hebben. Het zijn de stekkers en pinnen waar het doorgaans mis gaat. En dat er zo velen dit ontwerp goed praten, maar zich intussen wel druk maken over "Chinese laadkabels" vind ik onbegrijpelijk. Zelfs in een hele stevige USB-C kabel zijn de draadjes hooguit 20 AWG en daar wordt dan 5A doorheen gejaagd. Apple gebruikt doorgaans slechts 28 AWG. Maar de stekker is hierbij veel steviger (zelfs met Lightning...), zowel de manier waarop de draden aan de stekker zitten, als de manier waarop de stekker in het apparaat steekt. Én zodra er iets geen contact zou maken, werkt de hele handel niet. Zoals gezegd: marges en idiot-proof. Hetzelfde geldt voor stopcontact stekkers: die stekkers en pinnen zijn zo dik omdat die verbinding 100% betrouwbaar moet zijn. De draden zijn relatief dik (ik moet eigenlijk eens opzoeken wat het in AWG is, denk 14 of 15; 1,5mm² is normaal), maar bedenk vervolgens dat daar 16A doorheen gejaagd mag worden (dat is de richtlijn voor een 25 meter lange verlengkabel)...


Voor mij persoonlijk betekent het simpelweg dat ik voorlopig geen Nvidia kaart meer koop, m'n 3080 heeft gewoon 2 8-pins. Iedereen moet het voor zichzelf beslissen en hoewel ik mezelf 100% vertrouw, wil ik vooral in m'n huidige SFF setup niet voorzichtig hoeven zijn vanwege een fragiel stekkertje waarbij je amper hoort of voelt dat hij echt vast zit. En dan heb ik m'n eigen kabels gekrimpt. Ik bouw al vanaf m'n 7e ofzo zelf PC's, heb talloze kabels zelf gekrimpt, van alles gesoldeerd, en het enige wat er ooit mis is gegaan door eigen fout is een 486DX4 waar ik wat leuke dip switches vond om de kloksnelheid in te stellen...9/10-jarige Werelds had nog niet het besef dat meer kloksnelheid = meer hitte = raar geurtje in de kamer als er geen ventilatortje bij zit :+

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

@Werelds
Dat is ook een van de redenen waarom ik besloten heb om mijn 4090FE weer in de verkoop te doen.
De pinnetjes zijn zo ongelooflijk iel en kwetsbaar. Daarbij is de behuizing van de connector ook nog eens relatief slap en vervormt makkelijk (door warmte/materiaalspanning). Dat zal ook bijdragen aan een mogelijk slecht contact. Ik ga het risico niet nemen dat een GPU van €2000 mogelijk een gesmolten connector krijgt, waarbij het dan bij de garantieafhandeling mogelijk afgewimpeld wordt als user error.

Het is gewoon een recept waarbij veel fout kan gaan en het lijkt haast wel alsof er iemand (of de hele ontwerpafdeling) bij Nvidia een miniaturisatie fetisj heeft dat bevredigd moet worden. De 12V2x6 revisie gaat niets oplossen, want ook in de gevallen dat de stekker er wel 'goed' in zit kan het dus fout gaan.
Geef mij maar gewoon Molex minifit 2x8pin of een 1x16pin met een herziening van het toelaatbaar vermogen.

Acties:
  • 0 Henk 'm!

  • Van der Berg
  • Registratie: April 2014
  • Laatst online: 14:54
meljor schreef op vrijdag 5 januari 2024 @ 12:21:
Zelfs op 4k is de 4090 nog vaak cpu limited, zeker als je niet de snelste cpu hebt.

Voor het gemak ga ik er even vanuit dat de 8800x3d (of hoe hij ook maar gaat heten) circa15% sneller zal zijn dan een 7800x3d.

Als over een jaar een 5090 zal uitkomen wordt het probleem dus alleen maar groter.
Dus mijn Ryzen 7 5800X is niet snel genoeg bedoel je voor de 4090? Alles draait op standaard kloksnelheid

[ Voor 3% gewijzigd door Van der Berg op 05-01-2024 14:47 ]

X570 Aorus Pro - Ryzen 7 5800X- Noctua NH-U14S - FSP Hydro Ti PRO 1000W - 32GB DDR4 3600MHz C16 - GeForce RTX 4090 - 990 Pro 4TB - MSI MAG 321UP QD-OLED 4K/165Hz - 65" OLED LG B4 - Watch Ultra LTE - S24 Ultra 1TB - Tab S10+ 512/12GB - Buds 3 Pro - 22TB


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Van der Berg schreef op vrijdag 5 januari 2024 @ 14:46:
[...]


Dus mijn Ryzen 7 5800X is niet snel genoeg bedoel je voor de 4090? Alles draait op standaard kloksnelheid
Was een algemene opmerking meer om aan te geven dat de 4090 een beest is en voor maximale prestaties ook een beest van een cpu nodig heeft, zelfs op 4k in veel gevallen.

Maar de 5800x als voorbeeld: volgens techpowerup laat je bij 4K gemiddeld 12,5% liggen qua gemiddelde fps over alle geteste games tov de 7800x3d.

Als je naar de minimum fps kijkt op 4K is dat al zon 20%.

En het feit dat het met een 7800x3d nog groeide geeft waarschijnlijk aan dat de 4090 een nog snellere (toekomstige) cpu ook wel aan het werk zet nog.

Dus als een 5090 een flink stuk sneller wordt dan zal die helemaal cpu limited zijn.

Met Raytracing aan zal het anders zijn.

[ Voor 7% gewijzigd door meljor op 05-01-2024 18:26 ]


Acties:
  • 0 Henk 'm!

  • kyrillajax
  • Registratie: Oktober 2018
  • Laatst online: 12-09 08:23
meljor schreef op vrijdag 5 januari 2024 @ 12:21:
Zelfs op 4k is de 4090 nog vaak cpu limited, zeker als je niet de snelste cpu hebt.

Voor het gemak ga ik er even vanuit dat de 8800x3d (of hoe hij ook maar gaat heten) circa15% sneller zal zijn dan een 7800x3d.

Als over een jaar een 5090 zal uitkomen wordt het probleem dus alleen maar groter.
Ik zou eerder rond de 20% verwachten. Iets hoger of iets lager.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
kyrillajax schreef op vrijdag 5 januari 2024 @ 18:50:
[...]

Ik zou eerder rond de 20% verwachten. Iets hoger of iets lager.
kyrillajax schreef op vrijdag 5 januari 2024 @ 18:50:
[...]

Ik zou eerder rond de 20% verwachten. Iets hoger of iets lager.
Dat is meer dan van 5800x3d naar 7800x3d (en dat was inclusief nieuw platform + ddr5). Ik denk het niet.

Maar goed, we dwalen hier af. Laat eerst die supers maar es komen voor een redelijke prijs.

Acties:
  • 0 Henk 'm!

  • Van der Berg
  • Registratie: April 2014
  • Laatst online: 14:54
Ik dacht erover, dat kost mij waarschijnlijk een nieuwe moederbord + DDR5? Voor 20% erbij. De 7800x3d werkt niet op AM4

Momenteel is mijn configuratie basis 3 jaar oud

[ Voor 17% gewijzigd door Van der Berg op 05-01-2024 19:55 ]

X570 Aorus Pro - Ryzen 7 5800X- Noctua NH-U14S - FSP Hydro Ti PRO 1000W - 32GB DDR4 3600MHz C16 - GeForce RTX 4090 - 990 Pro 4TB - MSI MAG 321UP QD-OLED 4K/165Hz - 65" OLED LG B4 - Watch Ultra LTE - S24 Ultra 1TB - Tab S10+ 512/12GB - Buds 3 Pro - 22TB


Acties:
  • 0 Henk 'm!

  • kyrillajax
  • Registratie: Oktober 2018
  • Laatst online: 12-09 08:23
meljor schreef op vrijdag 5 januari 2024 @ 19:50:
[...]


[...]


Dat is meer dan van 5800x3d naar 7800x3d (en dat was inclusief nieuw platform + ddr5). Ik denk het niet.

Maar goed, we dwalen hier af. Laat eerst die supers maar es komen voor een redelijke prijs.
Prestatie verschil van de 5800X3D naar de 7800X3D ligt gemiddeld juist rond de 15%.

Edit: je hebt gelijk, het is 18% bij 1080p volgens Hardware Unboxed (en 20% bij 1% lows in 1080p). Hoe dan ook, zen 5 gaat een architectural redisgn/overhaul zijn en daarmee verwacht ik wel een aardige prestatie winst (meer dan 15%).

[ Voor 16% gewijzigd door kyrillajax op 05-01-2024 20:07 ]


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
kyrillajax schreef op vrijdag 5 januari 2024 @ 20:02:
[...]

Prestatie verschil van de 5800X3D naar de 7800X3D ligt gemiddeld juist rond de 15%.

Edit: je hebt gelijk, het is 18% bij 1080p volgens Hardware Unboxed (en 20% bij 1% lows in 1080p). Hoe dan ook, zen 5 gaat een architectural redisgn/overhaul zijn en daarmee verwacht ik wel een aardige prestatie winst (meer dan 15%).
We gaan het zien en ik ben benieuwd. Tot nu toe best aardige stappen steeds van amd.

Acties:
  • +1 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 13:26
Misschien minder relevant voor de 4000 reeks, maar ik denk dat er nog geen 5000 discussie artikel is.

Iets dat ik me recent bedacht heb in verband met Nvidia die aangekondigd hebben dat ze nu een AI bedrijf zijn: ik denk dat we dat niet al te negatief moeten interpreteren. Volgens mij bedoelen ze daarmee niet dat ze geen GPUs meer gaan maken of dat ze de GPU markt zullen verwaarlozen.

Ik denk dat ze daarmee gewoon bedoelen dat ze in het vervolg niet meer hun AI kaarten zullen ontwikkelen gebaseerd op hun GPU kaarten, maar dat ze in de plaats het omgekeerde zullen doen: beginnen met een AI kaart (dus Blackwell) en op basis van die architectuur later een grafische chip ontwikkelen. En dat moet heus niet ten koste gaan van de kwaliteit van die kaarten. Sterker nog: ik denk dat ze daarmee beter in staat zullen zijn om de kaarten beter aan te passen aan de noden van de gamers, onder andere met behulp van chiplet architectuur enzovoort.

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
nzall schreef op zondag 7 januari 2024 @ 16:30:
Ik denk dat ze daarmee gewoon bedoelen dat ze in het vervolg niet meer hun AI kaarten zullen ontwikkelen gebaseerd op hun GPU kaarten, maar dat ze in de plaats het omgekeerde zullen doen: beginnen met een AI kaart (dus Blackwell) en op basis van die architectuur later een grafische chip ontwikkelen. En dat moet heus niet ten koste gaan van de kwaliteit van die kaarten. Sterker nog: ik denk dat ze daarmee beter in staat zullen zijn om de kaarten beter aan te passen aan de noden van de gamers, onder andere met behulp van chiplet architectuur enzovoort.
Dat zou juist wel ten koste van graphics gaan. Dat is waarom ze dat nu al niet doen.

A100 heeft per partitie 16xFP32, 16xINT32, 8xFP64, een tensor core, 8 LD/ST units en 4 SFU. AD102 heeft slechts 1 FP64 (de enige reden dat die aanwezig is, is voor compatibility), verruilt de 16xINT32 voor 16xFP/INT32 en heeft slechts 4 LD/ST units.

Stapje omhoog op SM niveau heeft A100 50% meer L1$ (192 KB) en heeft AD102 een RT core.

Die laatste zal nooit en te nimmer relevant worden voor "AI" (lees: DL/ML). Simpelweg volstrekt overbodig. Anderzijds heeft Ada heeft voor graphics al een probleem met veel te veel FP32 die ze überhaupt niet aan het werk kunnen houden; de enige reden dat er zo veel FP32 is, is omdat dat met het huidige SM ontwerp (in grote lijnen ongewijzigd sinds Turing) simpelweg niet anders kan. Ze hebben meer RT cores nodig (omdat die ook nagenoeg ongewijzigd zijn sinds Turing) en dat kan alleen door meer SM's in de GPU te stoppen, wat dus ook in meer FP32 resulteert.

Meer cache doet voor graphics ook niet veel met de huidige setup, omdat het allemaal te los van elkaar staat.
Voor de "AI" toepassingen is er juist wel behoefte aan zo veel rekenkracht en meer cache, omdat daar veel meer binnen SM blijft (laat staan de GPU in z'n geheel). Met graphics moeten ze constant terug naar de L2$. FP en INT zijn ook veel meer in balans voor dit soort toepassingen, dus er is geen noodzaak voor de mixed ALU's.

Voor graphics is juist een geheel andere setup nodig voor de toekomst, die Nvidia (of AMD, of Intel) met hun huidige ontwerp en MCM niet op kan vangen. Voor raster graphics hebben we al lang met afnemend rendement te maken als het op FP32 vs performance aan komt (een 4090 is lang niet zo snel als hij op papier zou moeten zijn). Meer FP32 is niet per se sneller, als je die ALU's niet aan het werk gezet krijgt. En dat is een heel complex verhaal, omdat je slechts tot op zekere hoogte de workloads uit elkaar kunt trekken om ze zo parallel mogelijk af te handelen. Voor RT heb je daarentegen ook FP32 nodig, maar geen 128 FP32 ALU's voor een enkele RT core, dus die balans klopt voor geen meter. Een tweede RT core in een SM stoppen gaat niet helpen, want die kunnen ze dan toch niet parallel aan het werk houden.

Wat er voor de twee toepassingen nodig is, is radicaal anders. Het ouderwetse brute-force opschalen werkt nog gewoon voor ML/DL, zolang de data aanvoer maar voldoende is. Dat werkt al niet meer voor rasterised graphics, dus het huidige opschalen gaat je uiteindelijk zelfs tegen werken. De enige reden dat een 4090 geen kilowatt verstookt, is omdat minstens 50% van de GPU stil ligt op enig gegeven moment.

En dat staat allemaal los van het feit dat de 3 grote fabrikanten eindelijk eens werk moeten maken van RT. Er is nog heel veel dat in hardware gedaan zou moeten worden en er is 0,0 vooruitgang op dat gebied de afgelopen 5 jaar. Wat meer hits/clock, maar that's it; en die cijfers komen er bij lange na niet uit omdat ze het allemaal niet gescheduled krijgen.

Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
nzall schreef op zondag 7 januari 2024 @ 16:30:
Misschien minder relevant voor de 4000 reeks, maar ik denk dat er nog geen 5000 discussie artikel is.

Iets dat ik me recent bedacht heb in verband met Nvidia die aangekondigd hebben dat ze nu een AI bedrijf zijn: ik denk dat we dat niet al te negatief moeten interpreteren. Volgens mij bedoelen ze daarmee niet dat ze geen GPUs meer gaan maken of dat ze de GPU markt zullen verwaarlozen.

Ik denk dat ze daarmee gewoon bedoelen dat ze in het vervolg niet meer hun AI kaarten zullen ontwikkelen gebaseerd op hun GPU kaarten, maar dat ze in de plaats het omgekeerde zullen doen: beginnen met een AI kaart (dus Blackwell) en op basis van die architectuur later een grafische chip ontwikkelen. En dat moet heus niet ten koste gaan van de kwaliteit van die kaarten. Sterker nog: ik denk dat ze daarmee beter in staat zullen zijn om de kaarten beter aan te passen aan de noden van de gamers, onder andere met behulp van chiplet architectuur enzovoort.
Ik denk dat we gewoon weer snellere gaming kaarten gaan krijgen. RTX 3090 vs RTX 4090 niveau. Ik maak me dus ook geen zorgen dat we geen goede gaming GPU's gaan krijgen de komende jaren van Nvidia. Dat een chip niet volledig word gebruikt interesseert me ook geen hol.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
3DEXP schreef op woensdag 10 januari 2024 @ 10:19:
Ik denk dat we gewoon weer snellere gaming kaarten gaan krijgen. RTX 3090 vs RTX 4090 niveau.
Meer teleurstellingen dus? ;)

Van Maxwell naar Pascal was boeiender dan zelfs Turing naar Ada. Op alle SKU's, welteverstaan, want het is nu zowel aan de absolute onderkant als bovenkant van de lineup behoorlijk triest.
Dat een chip niet volledig word gebruikt interesseert me ook geen hol.
Dat zou wel moeten, want als ze beter bezet worden komen er binnen hetzelfde vermogensbudget betere prestaties uit - en belangrijker voor je portemonnee: meer performance met minder transistors, wat betekent dat de chips kleiner en goedkoper kunnen worden. Of als je portemonnee niet boeiend is, nóg betere prestaties binnen hetzelfde verbruik. Dat ALU's (in de breedste zin van het woord; TC/RT tel ik ook mee) stil liggen, betekent niet dat ze niet van stroom worden voorzien. Zelfs als een ALU niets hoeft te doen, zal een deel van de transistors van die specifieke ALU tóch moeten schakelen, dus er loopt gewoon stroom doorheen. Niet de volle mep, maar toch aardig wat.

AD102 bevat maar liefst 2,7 keer zo veel transistors als GA102, met 50% meer ALU's op 35% hogere kloksnelheid, wat het dubbele aan performance zou moeten betekenen. Zelfs met RT krijg je dat er nooit uit, bij 70% winst houdt het wel op; met raster haal je de 50% niet eens. Sterker nog, met enkel de kloksnelheid winst zou een 3090 Ti vrijwel hetzelfde presteren.

Er is bizar veel verspilde ruimte in Ada dankzij de grote L2$ die niets op levert; een shrink van GA102 zou ergens rond de 225mm² uit komen. Kleiner dan AD104 (4070 /Ti) dus. En die laatste presteert ongeveer hetzelfde, dankzij de kloksnelheid. Pomp GA102 naar diezelfde kloksnelheden en je zou al rap 30-40% meer performance halen dan dat ding, op álle vlakken. AD106 (4060 Ti) heeft bijna even veel transistors als GA102, maar is geenszins vergelijkbaar. En dat alles uit zo'n kleine chip.

En dan heeft Ampère hetzelfde bezettingsprobleem als Ada (hoewel het in Ada nog iets erger geworden is; zie de 4080, die zou 20-25% sneller dan een 3090 Ti moeten zijn maar dat komt er al niet uit). Stel je dus eens voor wat er mogelijk zou zijn als Ada niet zo'n lam product was geweest. GA102 shrink, clocks naar 2,5-2,6, en dan 50% meer transistors puur voor RT (wat ze dus niet kunnen, zoals ik hierboven aan geef). Zou tussen AD104 en AD103 uit komen qua afmetingen, waarschijnlijk rond AD104 uit komen qua verbruik, maar met dezelfde performance als een 4090. Belangrijkste is echter dat

Ik hoop oprecht dat Blackwell (of wat Nvidia ook voor de consumenten chips gaat gebruiken) daadwerkelijk weer eens innoveert, want als we verder gaan zoals met de laatste 2 zie ik het somber in voor ons. De chips blijven dan groot (en dus duur) en hongerig, zonder veel nieuws te bieden. Helaas is inmiddels wel gebleken dat er te veel mensen toch gewoon in trappen, dus ik zou er niet van op kijken als dat wél gebeurt.

Acties:
  • +2 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Werelds schreef op woensdag 10 januari 2024 @ 14:01:
[...]

Meer teleurstellingen dus? ;)
Nee juist niet.

Zonder CPU bottlenek is de RTX 4090 75% sneller dan de RTX 3090 op 4k dat is eerder indrukwekkend. Als de RTX 5090 ook weer 75% winst kan halen, wat ik betwijfel, dan vind ik dat net zo indrukwekkend, ik ben al blij met 50% winst wat de limieten komen steeds dichter bij.

Vooral CPU's van AMD en Intel zijn een teleurstelling als het op gaming aan komt.

[ Voor 4% gewijzigd door 3DEXP op 10-01-2024 14:23 ]


Acties:
  • 0 Henk 'm!

  • Skyline GT-R
  • Registratie: Januari 2004
  • Laatst online: 08-09 08:43

Skyline GT-R

RB26DETT

Er is toch helemaal geen CPU bottleneck op 4K? Bij 4k is het pure GPU power die speelt. Zeker met een moderne Ryzen 7 7800X3D.. Dat is meer dan voldoende CPU om geen bottleneck te zijn op 4K.

Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Skyline GT-R schreef op woensdag 10 januari 2024 @ 14:24:
Er is toch helemaal geen CPU bottleneck op 4K? Bij 4k is het pure GPU power die speelt. Zeker met een moderne Ryzen 7 7800X3D.. Dat is meer dan voldoende CPU om geen bottleneck te zijn op 4K.
In bepaalde games is er met een 8700x3D een flinke CPU bottlnek op 4k in combinatie met een RTX 4090. Ik heb redelijk vaak dat de GPU maar rond de 75% load heeft.

Acties:
  • 0 Henk 'm!

  • Arjen42
  • Registratie: September 2010
  • Laatst online: 09-09 08:17
Skyline GT-R schreef op woensdag 10 januari 2024 @ 14:24:
Er is toch helemaal geen CPU bottleneck op 4K? Bij 4k is het pure GPU power die speelt. Zeker met een moderne Ryzen 7 7800X3D.. Dat is meer dan voldoende CPU om geen bottleneck te zijn op 4K.
Nee, dat is een fabeltje.

Bij (sommige) benchmarks is er sprake van een CPU bottleneck op 1920x1080 i.c.m. high end GPU's. Daarom doet men vaak CPU vergelijkingen op 1920x1080 met high end GPU's om de verschillen tussen de CPU's te kunnen aantonen met hele hoge frame rates. Hiervoor wordt een high end GPU gebruikt om er zeker van te zijn dat de GPU niet een bottleneck wat de benchmark nadelig beïnvloed, e.g. alle CPU'S scoren hetzelfde.

Op hogere resoluties moet een GPU veel harder werken waardoor de kans veel groter is dat deze een bottleneck wordt i.p.v. de CPU. Voor een CPU benchmark is dat niet handig.

In de praktijk hebben hele hoge frame rates geen zin, tenzij je een beeldscherm die een hogere refresh rate ingesteld worden, of als je in multiplayer games extra snel zou willen kunnen reageren.

Het is natuurlijk afhankelijk van de game of applicatie hoeveel CPU power er nodig is. Dus je kunt geen algemene uitspraken doen over bottlenecks die bij bepaalde resoluties wel of niet van toepassing zijn.

Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
3DEXP schreef op woensdag 10 januari 2024 @ 14:21:
Zonder CPU bottlenek is de RTX 4090 75% sneller dan de RTX 3090 op 4k dat is eerder indrukwekkend.
...
Vooral CPU's van AMD en Intel zijn een teleurstelling als het op gaming aan komt.
3DEXP schreef op woensdag 10 januari 2024 @ 14:28:
In bepaalde games is er met een 8700x3D een flinke CPU bottlnek op 4k in combinatie met een RTX 4090. Ik heb redelijk vaak dat de GPU maar rond de 75% load heeft.
Eerst dit maar even: dat ligt niet aan de CPU's, maar aan Nvidia. Hun driver doet het grootste deel van hun scheduling en kan dat niet multithreaded. Je kunt Intel en AMD daar moeilijk de schuld geven, dan moet Nvidia zelf maar eens een CPU gaan leveren die op de 7+ GHz draait die zij nodig hebben voor hun driver :)
3DEXP schreef op woensdag 10 januari 2024 @ 14:21:
Zonder CPU bottlenek is de RTX 4090 75% sneller dan de RTX 3090 op 4k dat is eerder indrukwekkend. Als de RTX 5090 ook weer 75% winst kan halen, wat ik betwijfel, dan vind ik dat net zo indrukwekkend, ik ben al blij met 50% winst wat de limieten komen steeds dichter bij.
70% van de op papier minimaal 102,5% die er in zit (dat is los van de gigantische L2$ die voor nog meer winst zou moeten zorgen maar dat in de praktijk niet doet; of misschien zou er zonder de L2$ nog minder uit die 102,5% komen), tegenover een GPU die op papier wederom dik 160% (!) sneller zou moeten zijn dan z'n voorganger, maar in de praktijk de 55% niet eens haalt. De 4090 is op papier maar liefst 507% (ja, zes keer) sneller dan de 2080 Ti. Of als ik de theoretische rekenkracht even naar de realiteit haal en Nvidia's onzin cijfers negeer, dan zou hij alsnog 203% (3 keer dus) sneller moeten zijn. Zelfs met RT haal je daar hooguit de helft van.

Het gaat niet om Ada vs. Ampère, het gaat om Ampère vergeleken met alles ervoor. Met Ampère (en Ada is gewoon Ampère met meer L2$) heeft Nvidia een hoop veranderd en hun GPU's minder efficiënt gemaakt, een hele grote stap achteruit. De 2080 Ti was op papier slechts zo'n 20% sneller dan de 1080 Ti, maar toch kwam daar bijna 40% uit, omdat de architectuur daadwerkelijk een stap vooruit was. De 1080 Ti was pakweg 85% sneller dan de 980 Ti op papier en pakweg 85% in de werkelijkheid - logisch, want Pascal ging niet om architectuur en performance, maar om efficiëntie (70% meer perf/W). 980 Ti op papier 20% sneller dan 780 Ti, in de praktijk zo'n 40%. Laten we het maar niet over zoiets als de 8800 hebben ;)

Ampère en Ada zijn gewoon een slechte architectuur die een stap terug is van Turing en eerder, punt. Met eerstgenoemde was er niets positiefs te zien (gelijke perf/W, minder perf/ALUofTransistor en het begin van de verslechterende perf/$), met laatstgenoemde hebben ze bovenop dat alles ook nog eens laten zien dat die architectuur niet op schaalt, waardoor er verminderd rendement bij grotere chips optreedt. Deze architectuur dient naar de prullenbak verwezen te worden, naast Fermi en NV30 (de stofzuiger generatie).

Door er zo naar te kijken moedig je aan dat Nvidia op hardware vlak niet innoveert of verbetert en dingen gewoon groter maakt. Wat ze op software vlak doen zal mij juist worst wezen, want dingen als DLSS, FG en RR zijn allemaal pleisters op de wonde die het gebrek aan innovatie en verbetering op hardware vlak is. We hadden vroeger een tick-tock cyclus: nieuwe architectuur die doorgaans stukken beter werd en dus meer performance uit de transistors kneep, gevolgd door een shrink (met wellicht opgeschaalde chips) waardoor alles sneller en zuiniger werd. Af en toe een misstap (hoi Fermi), maar daar borduurden ze niet zo lang op voort als nu.

Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
De schuld geven is nog al een groot woord want AMD en intel kunnen er niet veel aan doen als een game voor enkele cores word geprogrammeerd, in dezelfde games raakt de RX 7900 XTX ook niet aan de 100% GPU load twrw8jl de CPU bijna niks aan het doen is.

Acties:
  • 0 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 13:26
3DEXP schreef op woensdag 10 januari 2024 @ 17:35:
De schuld geven is nog al een groot woord want AMD en intel kunnen er niet veel aan doen als een game voor enkele cores word geprogrammeerd, in dezelfde games raakt de RX 7900 XTX ook niet aan de 100% GPU load twrw8jl de CPU bijna niks aan het doen is.
Het probleem is dat door de wide spread van pc CPU technologie developers gewoon niet anders kunnen. Veel mensen gebruiken nog CPUs met vier cores of minder. Hexacores en octacores worden wel populairder, maar er zijn nog ongeveer dertig procent van gamers die 4 cores hebben of twee. En als je als developer zegt dat je 30% van je mogelijke markt verloochend, dan gaat je publisher klagen.

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
3DEXP schreef op woensdag 10 januari 2024 @ 17:35:
De schuld geven is nog al een groot woord want AMD en intel kunnen er niet veel aan doen als een game voor enkele cores word geprogrammeerd, in dezelfde games raakt de RX 7900 XTX ook niet aan de 100% GPU load twrw8jl de CPU bijna niks aan het doen is.
Ik had het over Nvidia's driver, niet de games. Zelfs als een game 32 cores zou kunnen gebruiken, zit Nvidia's driver op één thread en die moet veel werk verrichten. Nvidia is hierbij meer afhankelijk van de CPU dan AMD, omdat laatstgenoemde meer van hun scheduling in hardware kan doen. Op lage framerates is dat niet zo'n probleem, maar met hoge framerates wordt de driver al vrij snel de beperkende factor, zelfs in games die fatsoenlijk met meerdere cores werken.

"GPU usage" is overigens een vrij nutteloze term, omdat "100%" helemaal niet 100% is en niet per se een indicatie is van een CPU bottleneck. Jouw 4090 op "100%" usage gebruikt hooguit zo'n 40% van z'n capaciteit; maar op "70%" kan dat ook het geval zijn. Ik zal er maar niet te diep in duiken, maar 100% betekent enkel dat de GPU zélf binnen de tijd die hij nodig had om het huidige frame te renderen geen moment stil heeft gelegen. Dat wil niet zeggen dat elk onderdeel van de GPU bezig was; 70% betekent ook niet dat de CPU te traag was, want dat kan ook veroorzaakt worden doordat er iets uit VRAM geladen moet worden waar alle huidige berekeningen op moesten wachten (laden uit VRAM telt niet mee voor "usage"), daar kan de CPU niets aan doen. Hooguit de driver en/of engine, die hadden die data wellicht al eerder kunnen laten laden. Maar dat is een programmatuur probleem, geen CPU of GPU probleem ;)

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Werelds schreef op woensdag 10 januari 2024 @ 20:25:
[...]

Ik had het over Nvidia's driver, niet de games. Zelfs als een game 32 cores zou kunnen gebruiken, zit Nvidia's driver op één thread en die moet veel werk verrichten. Nvidia is hierbij meer afhankelijk van de CPU dan AMD, omdat laatstgenoemde meer van hun scheduling in hardware kan doen. Op lage framerates is dat niet zo'n probleem, maar met hoge framerates wordt de driver al vrij snel de beperkende factor, zelfs in games die fatsoenlijk met meerdere cores werken.

"GPU usage" is overigens een vrij nutteloze term, omdat "100%" helemaal niet 100% is en niet per se een indicatie is van een CPU bottleneck. Jouw 4090 op "100%" usage gebruikt hooguit zo'n 40% van z'n capaciteit; maar op "70%" kan dat ook het geval zijn. Ik zal er maar niet te diep in duiken, maar 100% betekent enkel dat de GPU zélf binnen de tijd die hij nodig had om het huidige frame te renderen geen moment stil heeft gelegen. Dat wil niet zeggen dat elk onderdeel van de GPU bezig was; 70% betekent ook niet dat de CPU te traag was, want dat kan ook veroorzaakt worden doordat er iets uit VRAM geladen moet worden waar alle huidige berekeningen op moesten wachten (laden uit VRAM telt niet mee voor "usage"), daar kan de CPU niets aan doen. Hooguit de driver en/of engine, die hadden die data wellicht al eerder kunnen laten laden. Maar dat is een programmatuur probleem, geen CPU of GPU probleem ;)
Verschil in 100% gpu is altijd mooi te zien aan temperaturen.

Op 100% draait mijn xtx circa 60 graden en 75 graden hotspot. Zet ik Raytracing aan dan is de 100% ineens goed voor bijna 80 graden en 90+ graden hotspot en een iets hogere fan snelheid EN een lagere gpu kloksnelheid.

Acties:
  • 0 Henk 'm!

  • Cidious
  • Registratie: Mei 2005
  • Laatst online: 10-09 05:02

Cidious

The Bloody Gent

meljor schreef op donderdag 11 januari 2024 @ 09:33:
[...]


Verschil in 100% gpu is altijd mooi te zien aan temperaturen.

Op 100% draait mijn xtx circa 60 graden en 75 graden hotspot. Zet ik Raytracing aan dan is de 100% ineens goed voor bijna 80 graden en 90+ graden hotspot en een iets hogere fan snelheid EN een lagere gpu kloksnelheid.
En powerdraw in eerste instantie. Temperaturen zijn een resultaat daarvan.

Als ik ARK Ascended speel (UE5) met alles op Epic settings dan vreet de GPU meestal uit de neus met 280W bij 97% load ofzo. Maar als ik an een fakkel aansteek met rook particle effects en schaduwen dan stijgt de GPU power draw naar 420W bij gelijke load in percentage.

Het heeft er mee te maken hoeveel van de die daadwerkelijk benut wordt. Sommige delen van de architectuur zijn voor RT anderen voor andere render technieken. Veel games benutten maar een klein deel van de die en dan zal power draw lager uitvallen.

3DMark Speedway weet wel aardig gelijktijdig de hele die te benutten zonder teveel in een CPU bottleneck te lopen.

R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38

Pagina: 1 ... 32 ... 39 Laatste

Let op:
Mensen lezen dit topic om ervaringen te delen over RTX 40xx kaarten, of om over de achterliggende techniek te praten. We willen die discussie graag zo houden, blijf dus ontopic! Reacties die ergens anders over gaan (prijzen, levertijden, aankoopadvies etc etc) worden verwijderd of gemod.

Let bij het reageren op het volgende:
  • Blijf vriendelijk naar elkaar!
  • Reageer niet op "foute" berichten, maar rapporteer ze!
  • V&A op het forum is overal verboden, dus ook in dit topic. Een verwijzing naar verkoop (met of zonder link) naar je advertentie wordt verwijderd.
  • Net zoals in heel VB; geen persoonlijk aankoopadvies!
  • Voor informatie over voedingen en aansluitingen moet je hier zijn: Voeding advies en informatie topic - Deel 34
  • Voor levertijden en prijzen: [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen


Afbeeldingslocatie: https://tweakers.net/i/KnmyHiDpIX5duOtwQyfWg99GF7s=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/aYnEOc9vWTETmuPnQnGMS37b.png?f=user_large
Gezellig leuteren, kletsen, slowchatten?
Vergezel ons op de Officiele Tweakers Discord