Net als bij de introductie van de 40XX kaarten? En zelfs als je naast je undervolt ook TDP limit hebt ingesteld, dan is het goede kans dat het weinig impact heeft op de kans dat het smelt. Natuurlijk ergens zit een limiet bij welk TDP hij wel smelt en welke niet. Maar als eerst moet je een slecht contact hebben of een ander probleem voor hij uberhaupt kan smelten.jimh307 schreef op vrijdag 14 februari 2025 @ 09:19:
[...]
Nu heb ik mijn videokaart aardig undervolted.
Voor ons 'tweakers' is het een bewustwording dat die kabel/aansluiting veel issues kent. Voor iemand die van geen kwaad bewust is komt zo'n issue erg hard aan. Dat is mijn punt
Volledig mee eens. Er zijn omstandigheden waarin bepaalde pins op die connector worden overbelast, en dat leidt tot smeltende connectoren. Het probleem is dat voor zover ik weet het nog niet helemaal duidelijk is wat deze omstandigheden zijn: specifieke kaarten, specifieke kabels, specifieke voedingen of nog iets anders.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Ik zie vooral héél veel (clickbait) video’s en dus ophef erover op alle fora en socials, maar echte foto’s van verbrande 5090s zijn in tegenstelling tot de 40 serie een stuk minder zichtbaar.jimh307 schreef op donderdag 13 februari 2025 @ 22:31:
Het gaat bijna nergens anders meer over dan zo'n waardeloze aansluiting. Het loopt echt op z'n achterste benen en des te meer zal de 50 serie floppen. Gewoon teveel haast gemaakt om geld binnen te harken. Laten we eerlijk zijn naar elkaar en zeggen dat dit een waardeloze situatie is. Het is dat ik een 4080 heb die prima werkt want als ik die kaart niet zou hebben en wou upgraden zou ik kiezen voor de 7900XTX boven de 50 serie en grotendeels alleen vanwege de aansluiting.
Waar gaat dit over
Kortom, ik denk als je gewoon zorgvuldig monteert is er (zoals eigenlijk ook met de 40 serie al het geval was) echt niet zoveel aan de hand.
Mensen onderschatten echt in welke mate zelfs het kleinste defect waardoor je een video met titel als “40xx debacle REPEATED!” kan maken, veel meer clickbait en dus geld oplevert dan “50xx actually works FLAWLESS”.
Ik moet vooralsnog echt overtuigd worden door flink wat meer van foto’s / filmpjes van verbrande kaarten om overtuigd te zijn dat het vergelijkbaar is als met de 40xx serie. En ook daar is het uiteindelijk voor de meesten goed gekomen.
youtube.com/@hisrep
Nu met de release aankondiging van de 5070ti volgende week, vroeg ik mij af of iemand al iets gezien had met betrekking tot de grootte van de kaarten?
* Hoeveel PCIe sloten dik ?
* Lengte van de kaart(en)
* Gewicht ?
Afhankelijk van de straatprijs volgende week hangt het erom of ik en 5070Ti of een 5080 ga halen als upgrade van de 2070 Super die momenteel nog dienst doet.
* Hoeveel PCIe sloten dik ?
* Lengte van de kaart(en)
* Gewicht ?
Afhankelijk van de straatprijs volgende week hangt het erom of ik en 5070Ti of een 5080 ga halen als upgrade van de 2070 Super die momenteel nog dienst doet.
Allereerst is het aantal gesmolten stekkers tov alle verkochte 4090 en nu 5090 klein(net zoals het aantal 4090/5090's klein is als je naar alle GPU's kijkt), het is niet dat 5% of iets achterlijks problemen krijgt. Het punt is juist dat zelfs als je alles normaal aansluit er nog steeds een probleem kan zijn met onacceptable gevolgen voor 1000+ kostende GPU's. Dat is nu precies wat je bij Derbauer zijn video kon zien. Goed ingeplugde kabel en toch duidelijk problemen. Er zijn nu ook meerdere personen die duidelijk wisselende waardes meten bij enkel het herpluggen van de kabel.DeNachtwacht schreef op vrijdag 14 februari 2025 @ 10:14:
[...]
Ik zie vooral héél veel (clickbait) video’s en dus ophef erover op alle fora en socials, maar echte foto’s van verbrande 5090s zijn in tegenstelling tot de 40 serie een stuk minder zichtbaar.
Kortom, ik denk als je gewoon zorgvuldig monteert is er (zoals eigenlijk ook met de 40 serie al het geval was) echt niet zoveel aan de hand.
Gamers Nexus video van 2 jaar terug oid waarbij ze het probleem proberen te creeeren door de stekker los te trekken en vervolgens te claimen "user error" is duidelijk niet de reden dat de stekkers die smelten allemaal user error zijn, maar gewoon het gevolg zijn van een waardeloze connector.
Dat is toch zo bij elke GPU? Denk je dat alle gesmolten 7900XTX connectoren allemaal user errors zijn? En zelfs als de connector niet smelt, er zijn nog tal van redenen waarop een GPU defect kan gaan zonder dat de gebruiker iets fout doet.Razkin schreef op vrijdag 14 februari 2025 @ 10:37:
[...]
Allereerst is het aantal gesmolten stekkers tov alle verkochte 4090 en nu 5090 klein(net zoals het aantal 4090/5090's klein is als je naar alle GPU's kijkt), het is niet dat 5% of iets achterlijks problemen krijgt. Het punt is juist dat zelfs als je alles normaal aansluit er nog steeds een probleem kan zijn met onacceptable gevolgen voor 1000+ kostende GPU's. Dat is nu precies wat je bij Derbauer zijn video kon zien. Goed ingeplugde kabel en toch duidelijk problemen. Er zijn nu ook meerdere personen die duidelijk wisselende waardes meten bij enkel het herpluggen van de kabel.
Gamers Nexus video van 2 jaar terug oid waarbij ze het probleem proberen te creeeren door de stekker los te trekken en vervolgens te claimen "user error" is duidelijk niet de reden dat de stekkers die smelten allemaal user error zijn, maar gewoon het gevolg zijn van een waardeloze connector.
En natuurlijk, dat moet niet te vaak gebeuren, want dan is het een slecht ontworpen product. Maar dat een GPU weleens defect gaat zonder dat je er iets aan kan doen? Tja dat gebeurd nou eenmaal bij elke GPU weleens.
Wat absoluut niet het geval is met wat we nu weten van het probleem bij deze éne (!!!) kaart, dat de root cause de connector is. De root cause lijkt te zijn dat bij die ene specifieke kaart om onbekende reden alle stroom door één pin is getrokken. Als je dat bij een 8 pins PCIe connector doet, smelt die ook. Ja misschien zijn de marges daar groter, maar alsnog smelt hij dan.
Die ene kaart maakt het zoveel malen verklaarbaarder waarom er meer dan een paar 4090 connectors zijn gesmolten.
Pech kan je hebben met alles, maar voor mij is het onverteerbaar dat in de zoektocht om een mooiere kleinere connector op het PCB te hebben dit probleem bestaat. Als bv mijn 4090 morgen het opgeeft door een probleem in de core/ram, vervelend maar kan gebeuren. Smelt mijn connector omdat ik m'n GPU heb verwijderd om een CPU upgrade uit te voeren daar heb ik 0 begrip voor ook al is de kans 0,5%.
Een connector is wat koper in een plastic behuizing, dat is geen rocket science alle theorie erom heen is niet nieuw of ingewikkeld. Dit hele probleem had er gewoon niet horen te zijn. Dan rest enkel nog de user die zi'n kabel plat drukt om het in zijn behuizing te krijgen of haakse de bocht om wil met z'n connector en al heb ik er geen enkel bewijs voor, ben ik ervan overtuigd dat dit aandeel in de gesmolten connectoren klein is.
Pech kan je hebben met alles, maar voor mij is het onverteerbaar dat in de zoektocht om een mooiere kleinere connector op het PCB te hebben dit probleem bestaat. Als bv mijn 4090 morgen het opgeeft door een probleem in de core/ram, vervelend maar kan gebeuren. Smelt mijn connector omdat ik m'n GPU heb verwijderd om een CPU upgrade uit te voeren daar heb ik 0 begrip voor ook al is de kans 0,5%.
Een connector is wat koper in een plastic behuizing, dat is geen rocket science alle theorie erom heen is niet nieuw of ingewikkeld. Dit hele probleem had er gewoon niet horen te zijn. Dan rest enkel nog de user die zi'n kabel plat drukt om het in zijn behuizing te krijgen of haakse de bocht om wil met z'n connector en al heb ik er geen enkel bewijs voor, ben ik ervan overtuigd dat dit aandeel in de gesmolten connectoren klein is.
Uit Derbauer zijn video blijkt dat, voor die ene specifieke kaart, het hoofdprobleem dus niet de connector is! Maar dat om wat voor reden dan ook alle stroom door één pin van die connector ging. Daarom zag je ook dat zowel aan PSU als aan GPU kant het gesmolten was.
Misschien had een 8 pins connector het langer uitgehouden, maar goede kans ook dat die ook gewoon gesmolten was in die situatie.
Misschien had een 8 pins connector het langer uitgehouden, maar goede kans ook dat die ook gewoon gesmolten was in die situatie.
[ Voor 20% gewijzigd door Sissors op 14-02-2025 11:46 ]
Aan de gpu kant worden de 6 pinnen naar een enkele aanslutiing gemaakt, dit lijkt ook het geval te zijn aan de PSU kant voor zover ik dat kan herleiden uit pcb foto's en wat anderen erover zeggen.
Het probleem zat dus in de connectie tussen de GPU en PSU maw de kabel en de connectoren en zoals ook door anderen gemeten is wordt de stroom niet altijd netjes verdeeld over de 6 pin paren van de connector door ongelijke contact weerstanden tussen de pinnen van de ader paren, die ook duidelik anders zijn als je de connector opnieuw inplugd.
Alles duidt gewoon op de connector, de standaard of de mate van fabricage tolerantie, maar voor mij is dat gewoon een samenhangend geheel.
Edit: stroom bewaking aan de gpu kant had al die gesmolten connectoren kunnen voorkomen, zoals bij de 3090TI en uitgelegd door Buildzoid. Dat is een oplossing om de matige kwaliteit van de stekker te bewaken.
Het probleem zat dus in de connectie tussen de GPU en PSU maw de kabel en de connectoren en zoals ook door anderen gemeten is wordt de stroom niet altijd netjes verdeeld over de 6 pin paren van de connector door ongelijke contact weerstanden tussen de pinnen van de ader paren, die ook duidelik anders zijn als je de connector opnieuw inplugd.
Alles duidt gewoon op de connector, de standaard of de mate van fabricage tolerantie, maar voor mij is dat gewoon een samenhangend geheel.
Edit: stroom bewaking aan de gpu kant had al die gesmolten connectoren kunnen voorkomen, zoals bij de 3090TI en uitgelegd door Buildzoid. Dat is een oplossing om de matige kwaliteit van de stekker te bewaken.
[ Voor 13% gewijzigd door Razkin op 14-02-2025 12:02 ]
Het kan potentieel inderdaad een productie fout zijn van de kabel. Maar dat is nog steeds niet een fundamenteel probleem van de connector. Nogmaals, als je alle stroom door één pin jaagt bij een 8-pins connector smelt dat ding ook gewoon.Razkin schreef op vrijdag 14 februari 2025 @ 12:00:
Aan de gpu kant worden de 6 pinnen naar een enkele aanslutiing gemaakt, dit lijkt ook het geval te zijn aan de PSU kant voor zover ik dat kan herleiden uit pcb foto's en wat anderen erover zeggen.
Het probleem zat dus in de connectie tussen de GPU en PSU maw de kabel en de connectoren en zoals ook door anderen gemeten is wordt de stroom niet altijd netjes verdeeld over de 6 pin paren van de connector door ongelijke contact weerstanden tussen de pinnen van de ader paren, die ook duidelik anders zijn als je de connector opnieuw inplugd.
Alles duidt gewoon op de connector, de standaard of de mate van fabricage tolerantie, maar voor mij is dat gewoon een samenhangend geheel.
Edit: stroom bewaking aan de gpu kant had al die gesmolten connectoren kunnen voorkomen, zoals bij de 3090TI en uitgelegd door Buildzoid. Dat is een oplossing om de matige kwaliteit van de stekker te bewaken.
https://www.reddit.com/r/...tion_on_my_7900xtx_image/
https://www.reddit.com/r/...on_7900_xtx_what_do_i_do/
https://www.reddit.com/r/...d_and_killed_my_7900_xtx/
https://www.reddit.com/r/...m/gpu_power_cable_melted/
https://www.reddit.com/r/..._cable_to_melt_in_my_gpu/
https://www.reddit.com/r/...sions_melting_in_7900xtx/
https://www.reddit.com/r/...e_died_after_less_than_2/
En nogmaals, is er een fundamenteel probleem in het onwerp van de kaarten, dan moet dat worden opgelost! Als de productie van de kabels niet aan voldoende hoge standaarden voldoet, dan moet dat worden opgelost! Maar dat er één kabel gesmolten is bij één persoon (degene die hier hebben gemeten hebben allemaal binnen normale marges resultaten gehad), bewijst niks.
Ik ben je helemaal met je eens. Maar zoveel stroom verdelen over 6 pinnen, zonder actieve load balancing of beveiliging, lijkt me toch niet het beste idee. Een extra shunt resistor per pin, en een extra chip om die te controleren, is geen overbodige luxe voor een videokaart van +2000 euro.Sissors schreef op vrijdag 14 februari 2025 @ 12:21:
[...]
Het kan potentieel inderdaad een productie fout zijn van de kabel. Maar dat is nog steeds niet een fundamenteel probleem van de connector. Nogmaals, als je alle stroom door één pin jaagt bij een 8-pins connector smelt dat ding ook gewoon.
En nogmaals, is er een fundamenteel probleem in het onwerp van de kaarten, dan moet dat worden opgelost! Als de productie van de kabels niet aan voldoende hoge standaarden voldoet, dan moet dat worden opgelost! Maar dat er één kabel gesmolten is bij één persoon (degene die hier hebben gemeten hebben allemaal binnen normale marges resultaten gehad), bewijst niks.
Phoe daar ben je wel heel stellig in. Het is nog niet zeker wat de oorzaak is, maar hoofdverdachte en meest logische reden is verschil in de contact-/overgangsweerstanden. En mocht dat zo zijn, dan is de connector wel degelijk de bron van het probleem. Dat dit weer mogelijk is doordat Nvidia besloten heeft om een extra veiligheidslaag weg te halen (door de 12V lijnen aan de GPU kant samen te voegen) is bijzaak en één factor in een samenloop van omstandigheden.Sissors schreef op vrijdag 14 februari 2025 @ 11:06:
[...]
Wat absoluut niet het geval is met wat we nu weten van het probleem bij deze éne (!!!) kaart, dat de root cause de connector is. De root cause lijkt te zijn dat bij die ene specifieke kaart om onbekende reden alle stroom door één pin is getrokken. Als je dat bij een 8 pins PCIe connector doet, smelt die ook. Ja misschien zijn de marges daar groter, maar alsnog smelt hij dan.
Ja, een 8-pin (eigenlijk 6-pin) miniFit PCIe connector zal ook niet bestand zijn tegen 22A over een pin. Dat is gewoon ver over de absolute max. heen. En als dit een resultaat is omdat men de 12V/GND lijnen aan elkaar heeft gevoegd aan de GPU kant, dan geldt dezelfde kritiek.
Ik had het al eerder gepost en dacht dat de tabel voor zich zou spreken. Maar hier dan nog een keer:
/f/image/lPl8uivCNIx88dmrKfRWFg6G.png?f=fotoalbum_large)
Vooral de laatste twee rijen zijn interessant. Dat is dus het verschil van enkel het opnieuw insteken van de connector en het verschil tussen goed en slecht. Let ook op dat het vermogen bij de slechte verbinding 45W lager ligt, dus de stroom/pin zal nog verder over de absolute max. heen gaan dan het al doet.
Dit mag gewoon niet gebeuren hoe dan ook. Dit is over een harde toelaatbare technische grens heen.
Beter bewijs dat de connector niet deugd kan ik mij niet bedenken, men moet wel heel naïef zijn om de connector of de implementatie daarvan (daaronder schaar ik de keuze voor (g)een veiligheidsmarge) niet te verwijten.
Ik ben het er mee eens hoor dat de PCIe 6/8-pin niet onfeilbaar is. Hetzij door verkeerd gebruik, te vaak opnieuw verbinden/slijtage of productiefouten. Wel is het opvallend te noemen dat 6 van de 7 linkjes hier allemaal te maken hebben met Cablemod kabels en/of extensies. Daarnaast vermoed ik dat men sneller geneigd is iets te posten omdat Cablemod een uitmuntend goede service biedt bij problemen.Sissors schreef op vrijdag 14 februari 2025 @ 12:21:
https://www.reddit.com/r/...tion_on_my_7900xtx_image/
https://www.reddit.com/r/...on_7900_xtx_what_do_i_do/
https://www.reddit.com/r/...d_and_killed_my_7900_xtx/
https://www.reddit.com/r/...m/gpu_power_cable_melted/
https://www.reddit.com/r/..._cable_to_melt_in_my_gpu/
https://www.reddit.com/r/...sions_melting_in_7900xtx/
https://www.reddit.com/r/...e_died_after_less_than_2/
Om een goede vergelijking te maken moet het procentueel bekeken worden (en over de jaren heen).
DerBauer heeft even vier van de zes kabels doorgeknipt en ja hoor, dan gaat er 25A per draad doorheen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Sinds de driver update wilt mijn 5080 niet meer boosten.
Iemand anders ook last van?

Iemand anders ook last van?


[ Voor 38% gewijzigd door Valandin op 14-02-2025 16:04 ]
Ik zag wel bij 572.41 (beta) dat de boostclocks lager waren onder zware belasting, maar met 572.42 was dit niet meer van toepassing. Probeer de drivers eens opnieuw te installeren en gebruik DDU voor deinstallatie.Valandin schreef op vrijdag 14 februari 2025 @ 15:59:
Sinds de driver update wilt mijn 5080 niet meer boosten.
Iemand anders ook last van?
[Afbeelding]
[Afbeelding]
Ben ik nu inderdaad aan het draaienDegrader schreef op vrijdag 14 februari 2025 @ 16:11:
[...]
Ik zag wel bij 572.41 (beta) dat de boostclocks lager waren onder zware belasting, maar met 572.42 was dit niet meer van toepassing. Probeer de drivers eens opnieuw te installeren en gebruik DDU voor deinstallatie.
Zag op m'n screenshots dat MSI Afterburner een andere driver versie aangeeft dan ik geïnstalleerd heb.
Post zo een update...
Na een DDU en reinstall van 572.42 zijn de clocks zelfs nog lager.Degrader schreef op vrijdag 14 februari 2025 @ 16:11:
[...]
Ik zag wel bij 572.41 (beta) dat de boostclocks lager waren onder zware belasting, maar met 572.42 was dit niet meer van toepassing. Probeer de drivers eens opnieuw te installeren en gebruik DDU voor deinstallatie.


Op +415mhz had ik eerst een boostclock 3200 mhz.
Nu verbruikt hij meer stroom dan eerst op véél lagere clock speeds.
Zie dat ook meer mensen dit hebben:
https://www.reddit.com/r/...ocks_after_driver_update/
[ Voor 15% gewijzigd door Valandin op 14-02-2025 16:53 ]
Deze bevinding had ik met de beta driver 572.41, zie mijn reactie: Degrader in "[NVIDIA GeForce RTX 50XX] Ervaringen & Discussie"Valandin schreef op vrijdag 14 februari 2025 @ 16:28:
[...]
Na een DDU en reinstall van 572.42 zijn de clocks zelfs nog lager.
[Afbeelding]
[Afbeelding]
Op +415mhz had ik eerst een boostclock 3200 mhz.
Nu verbruikt hij meer stroom dan eerst op véél lagere clock speeds.
Zie dat ook meer mensen dit hebben:
https://www.reddit.com/r/...ocks_after_driver_update/
Maar met 572.42 leken de clocks weer op het oude niveau te zitten. Ik zal vanavond nog even goed testen.
Ik heb nu een rollback gedaan naar 572.16 en nu heb ik weer m'n reguliere clockspeeds terug.Degrader schreef op vrijdag 14 februari 2025 @ 17:03:
[...]
Deze bevinding had ik met de beta driver 572.41, zie mijn reactie: Degrader in "[NVIDIA GeForce RTX 50XX] Ervaringen & Discussie"
Maar met 572.42 leken de clocks weer op het oude niveau te zitten. Ik zal vanavond nog even goed testen.


Aankomende weken ga ik maar geen nvidia updates meer installeren
[ Voor 4% gewijzigd door Valandin op 14-02-2025 17:06 ]
wat vinden anderen van deze take van een certified electrical engineer?
voor mij als leek lijkt het neer te komen op het feit dat Nvidia dus wilde besparen op veiligheid onderdelen in het maken van de aansluiting aan de GPU kant en daar mee de connector lekker gemold heeft
https://old.reddit.com/r/...eers_take_on_12vhpwr_and/
nogmaals ben een leek maar dit verhaal klinkt goed en ik ben oprecht nieuwsgierig wat anderen hiervan vinden
voor mij als leek lijkt het neer te komen op het feit dat Nvidia dus wilde besparen op veiligheid onderdelen in het maken van de aansluiting aan de GPU kant en daar mee de connector lekker gemold heeft
https://old.reddit.com/r/...eers_take_on_12vhpwr_and/
nogmaals ben een leek maar dit verhaal klinkt goed en ik ben oprecht nieuwsgierig wat anderen hiervan vinden
Ik blijf normaal ver weg van regelmatige videodrivers, maar een paar dagen geleden toch de 572.16 geïnstalleerd omdat deze het probleem oplosten voor mijn 2 assassins creed titels. Verder werkt deze driver op mijn 4080 probleemloos. Ik denk dat het probleem met DLSS 4 vooral de 50 serie treft want in CP77 draai ik probleemloos met DLSS4 met de 572.16 driver.Valandin schreef op vrijdag 14 februari 2025 @ 17:05:
[...]
Ik heb nu een rollback gedaan naar 572.16 en nu heb ik weer m'n reguliere clockspeeds terug.
[...]
Aankomende weken ga ik maar geen nvidia updates meer installeren
Hier geen 50 serie en wat doe ik dan in dit topic?! Alleen melden dat het probleem wel degelijk aan een driver kan liggen. De 50 serie is nieuw en ik wist ook dat ik problemen had toen de 40 serie helemaal nieuw was. Dit werd langzaam opgelost door opvolgende driverversies.
Dus dan maar elke update doorvoeren? Nee, juist niet. Lees altijd de release notes en als er een item is dat voor jouw situatie belangrijk is dan moet je wel een update doorvoeren. De 572.16 versie had het euvel dat het je GPU kan bricken door te hoge clocks. Het is dus oppassen geblazen.
Jongens jongens wat is iedereen weer lekker los aan het gaan over nVidia en hun power connector.
Volgens mij is er allemaal niet zoveel aan de hand behalve:
-Slechte 3rd party kabels (slecht gemaakt of gewoon slechte kwaliteit uberhaupt)
-User error door verkeerd insteken of door verloopjes te gebruiken.
De influencers gaan uiteraard weer helemaal los maar de meesten weten van de hoed nog de rand laat staan dat ze een relevante technische achtergrond hebben.
Laten we bij het begin beginnen: is 600W teveel om door 6 PWR en 6 GND pinnen te jassen? Nee.
Laten we eens kijken naar bijvoorbeeld de Amphenol (een gerenommeerde connector fabrikant) variant van 12VHPR (spec hier)
Zij specificeren het volgende:
/f/image/UmdQDt14rC1nkQ8Ig1O2FCi5.png?f=fotoalbum_large)
Ofwel, 6x 9,5A = 54A * 12V = 684W - wat derating = 600W.
Hoe garanderen ze dat? Door hun pinnen en kabel nauwkeurig te specificeren:
Bijv:
/f/image/GX84tYrHRg5M7IAIKmzviRcT.png?f=fotoalbum_large)
/f/image/7HzOO0xLHVuEv7btbjEpLkfr.png?f=fotoalbum_large)
/f/image/dCWIQR8fHCfvvThgPuWNqZlR.png?f=fotoalbum_large)
/f/image/E6q9HQPgB8XgSZReY0XwJ0Td.png?f=fotoalbum_large)
/f/image/HwPKmG3KKPpHlOzTWJyhDZw0.png?f=fotoalbum_large)
Neem van mij aan, als je zo een kabel hebt is er niets aan de hand en werkt alles prima. Het probleem zit hem dan ook niet in de 12VHPR standaard, het probleem zit hem in de implementatie.
Third party fabrikanten gebruiken bijv. andere materialen, goedkopere krimpcontacten, een handmatig proces om kabels te krimpen, goedkoop kabel materiaal, testen niet alles, etc. etc.
En dan heb je nog sommige gebruikers die verloopjes gebruiken, de connector toch niet goed aandrukken of zoveel kracht op de connector zetten (scherpe hoek bijv) dat (toch al goedkope pinnen) slecht contact maken.
De influencers springen er uiteraard op in en maken gretig filmpjes, dat is tenslotte hun ding en daar verdienen ze geld mee.
Neem die laatste, "ik knip een paar aders door en oh help, er loopt meer stroom door de overgebleven aders". Joh, Sherlock, je meent het.......
Sorry, even mij onsamenhangende rant.
Disclamer: ontwerp al een jaar of 15 Elektronica waarvan een jaar of 2 servermoederborden voor AI servers.
Volgens mij is er allemaal niet zoveel aan de hand behalve:
-Slechte 3rd party kabels (slecht gemaakt of gewoon slechte kwaliteit uberhaupt)
-User error door verkeerd insteken of door verloopjes te gebruiken.
De influencers gaan uiteraard weer helemaal los maar de meesten weten van de hoed nog de rand laat staan dat ze een relevante technische achtergrond hebben.
Laten we bij het begin beginnen: is 600W teveel om door 6 PWR en 6 GND pinnen te jassen? Nee.
Laten we eens kijken naar bijvoorbeeld de Amphenol (een gerenommeerde connector fabrikant) variant van 12VHPR (spec hier)
Zij specificeren het volgende:
/f/image/UmdQDt14rC1nkQ8Ig1O2FCi5.png?f=fotoalbum_large)
Ofwel, 6x 9,5A = 54A * 12V = 684W - wat derating = 600W.
Hoe garanderen ze dat? Door hun pinnen en kabel nauwkeurig te specificeren:
Bijv:
/f/image/GX84tYrHRg5M7IAIKmzviRcT.png?f=fotoalbum_large)
/f/image/7HzOO0xLHVuEv7btbjEpLkfr.png?f=fotoalbum_large)
/f/image/dCWIQR8fHCfvvThgPuWNqZlR.png?f=fotoalbum_large)
/f/image/E6q9HQPgB8XgSZReY0XwJ0Td.png?f=fotoalbum_large)
/f/image/HwPKmG3KKPpHlOzTWJyhDZw0.png?f=fotoalbum_large)
Neem van mij aan, als je zo een kabel hebt is er niets aan de hand en werkt alles prima. Het probleem zit hem dan ook niet in de 12VHPR standaard, het probleem zit hem in de implementatie.
Third party fabrikanten gebruiken bijv. andere materialen, goedkopere krimpcontacten, een handmatig proces om kabels te krimpen, goedkoop kabel materiaal, testen niet alles, etc. etc.
En dan heb je nog sommige gebruikers die verloopjes gebruiken, de connector toch niet goed aandrukken of zoveel kracht op de connector zetten (scherpe hoek bijv) dat (toch al goedkope pinnen) slecht contact maken.
De influencers springen er uiteraard op in en maken gretig filmpjes, dat is tenslotte hun ding en daar verdienen ze geld mee.
Neem die laatste, "ik knip een paar aders door en oh help, er loopt meer stroom door de overgebleven aders". Joh, Sherlock, je meent het.......
Sorry, even mij onsamenhangende rant.
Disclamer: ontwerp al een jaar of 15 Elektronica waarvan een jaar of 2 servermoederborden voor AI servers.
zie mijn pot even hierboven volgens die man is er wel degelijk wat aan de handGG85 schreef op vrijdag 14 februari 2025 @ 17:23:
Jongens jongens wat is iedereen weer lekker los aan het gaan over nVidia en hun power connector.
Volgens mij is er allemaal niet zoveel aan de hand behalve:
-Slechte 3rd party kabels (slecht gemaakt of gewoon slechte kwaliteit uberhaupt)
-User error door verkeerd insteken of door verloopjes te gebruiken.
De influencers gaan uiteraard weer helemaal los maar de meesten weten van de hoed nog de rand laat staan dat ze een relevante technische achtergrond hebben.
Laten we bij het begin beginnen: is 600W teveel om door 6 PWR en 6 GND pinnen te jassen? Nee.
Laten we eens kijken naar bijvoorbeeld de Amphenol (een gerenommeerde connector fabrikant) variant van 12VHPR (spec hier)
Zij specificeren het volgende:
[Afbeelding]
Ofwel, 6x 9,5A = 54A * 12V = 684W - wat derating = 600W.
Hoe garanderen ze dat? Door hun pinnen en kabel nauwkeurig te specificeren:
Bijv:
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
Neem van mij aan, als je zo een kabel hebt is er niets aan de hand en werkt alles prima. Het probleem zit hem dan ook niet in de 12VHPR standaard, het probleem zit hem in de implementatie.
Third party fabrikanten gebruiken bijv. andere materialen, goedkopere krimpcontacten, een handmatig proces om kabels te krimpen, goedkoop kabel materiaal, testen niet alles, etc. etc.
En dan heb je nog sommige gebruikers die verloopjes gebruiken, de connector toch niet goed aandrukken of zoveel kracht op de connector zetten (scherpe hoek bijv) dat (toch al goedkope pinnen) slecht contact maken.
De influencers springen er uiteraard op in en maken gretig filmpjes, dat is tenslotte hun ding en daar verdienen ze geld mee.
Neem die laatste, "ik knip een paar aders door en oh help, er loopt meer stroom door de overgebleven aders". Joh, Sherlock, je meent het.......
Sorry, even mij onsamenhangende rant.
Disclamer: ontwerp al een jaar of 15 Elektronica waarvan een jaar of 2 servermoederborden voor AI servers.
De reden die DerBauer gaf voor zijn nieuwe video, is dat andere Youtuber's reactie video's hadden gemaakt. Waarin beweerd werd dat 25A helemaal niet kon, en dat de draad dan in enkele second zou smelten.GG85 schreef op vrijdag 14 februari 2025 @ 17:23:
Neem die laatste, "ik knip een paar aders door en oh help, er loopt meer stroom door de overgebleven aders". Joh, Sherlock, je meent het.......
An sich niets mis mee om dan te laten zien dat dat niet gebeurd. Maar het probleem is dat dit soort dingen altijd weer gebruikt wordt om te kunnen roepen "zie je wel!" door een paar mensen die graag hun confirmation bias bevestigd zien. Youtubers/influencers zouden daar beter bij stil moeten staan, en hun verantwoordelijk moeten nemen.
En toch, als ik van een 11kW kookplaat één van de fases doorknip dan werkt hij bij de meeste toestellen niet meer. En zelfs mocht hij wel proberen het volledige vermogen over minder draden te trekken dan zal de zekering in de meterkast ingrijpen als één van de draden teveel overbelast wordt.GG85 schreef op vrijdag 14 februari 2025 @ 17:23:
Neem die laatste, "ik knip een paar aders door en oh help, er loopt meer stroom door de overgebleven aders". Joh, Sherlock, je meent het.......
Waarom Nvidia ervoor gekozen heeft om sinds de 40 Series geen enkele controle meer te doen op de input zoals de RTX3090(Ti) wel deed volgens die video van DerBauer begrijp ik daarom simpelweg ook niet, het zal vast een paar cent schelen aan componenten maar met deze alsmaar hogere prijzen klinkt dat wel een beetje als verkeerde zuinigheid. Ook aan de PSU kant zou je dit relatief heel veilig kunnen oplossen door de PWR kabels individueel af te zekeren op bijv. 10A, i.p.v. er 'dom' zoveel vermogen doorheen drukken dat de hele zooi potentieel smelt en een brandgevaar wordt. Vroegah hadden veel PSUs immers ook meerdere 12V rails wat enigsinds een bescherming bood.
Ja in sommige gevallen is het zeker usererror natuurlijk, maar het ontbreken van ook maar enige beveiliging aan zowel de GPU als PSU kant vindt ik op zijn minst wel bijzonder.
[ Voor 7% gewijzigd door !mark op 14-02-2025 17:51 ]
Ik ben meer verbaasd dat iedereen er zo verbaasd over doet. Ze maken mooie dingen maar het zijn gewoon boeven.
Zag wat prijzen van de 4070 Ti voorbij komen van 1100 tot 1500 vind dat meer schokkend al kan ik daar ook niet meer verbaasd over zijn eigenlijk nu ik het intyp 😂
En verder ga allemaal gewoon eens gamen met die dingen inplaats van je druk te maken om smeltende connectors of benchmarks om te kijken wie de langste piemel heeft.
Geneuzel allemaal over paar procenten hier en daar. En het ontwerp van die power troep is gewoon slecht maar in de praktijk hebben de meeste er geen last van is de conclusie uiteindelijk. Niks nieuws denk ik dan zins met name al de 40 serie.
Zag wat prijzen van de 4070 Ti voorbij komen van 1100 tot 1500 vind dat meer schokkend al kan ik daar ook niet meer verbaasd over zijn eigenlijk nu ik het intyp 😂
En verder ga allemaal gewoon eens gamen met die dingen inplaats van je druk te maken om smeltende connectors of benchmarks om te kijken wie de langste piemel heeft.
Geneuzel allemaal over paar procenten hier en daar. En het ontwerp van die power troep is gewoon slecht maar in de praktijk hebben de meeste er geen last van is de conclusie uiteindelijk. Niks nieuws denk ik dan zins met name al de 40 serie.
[ Voor 42% gewijzigd door JWFpeters op 14-02-2025 18:54 ]
Denken jullie dat er weer ongeveer 3 maanden na launchdatum een 5080 Super komt? En dan misschien voor 200 euro meer of zelfs dezelfde MSRP als de 5080, waardoor de 5080 goedkoper zal worden (misschien als er een goede aanval vanuit AMD komt). Er zit zo een groot gat tussen 5080 en 5090, dat ik sowieso na een 4090 geen 5080 zou willen kopen, maar wellicht wel een 5080 Ti / Super en anders een 5090.
Met de huidige connector / stroom (non-)veiligheidsproblemen ben ik ook een beetje gaan afwachten. Ik heb zo een vermoeden dat we een hele andere connector gaan zien op de 6000 series.
Met de huidige connector / stroom (non-)veiligheidsproblemen ben ik ook een beetje gaan afwachten. Ik heb zo een vermoeden dat we een hele andere connector gaan zien op de 6000 series.
AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black
Dit was mij ook al vele jaren geleden opgevallen echter altijd erop vertrouwd dat 'de engineers' weten wat ze doen.
Terecht of onterecht?
Terecht of onterecht?
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Dat er iets tussen de 5080 en 5090 gaat komen is overduidelijk, dat gat is zo groot. Een 5080ti/super gaat er zeker weten komen.GTX404 schreef op vrijdag 14 februari 2025 @ 19:30:
Denken jullie dat er weer ongeveer 3 maanden na launchdatum een 5080 Super komt? En dan misschien voor 200 euro meer of zelfs dezelfde MSRP als de 5080, waardoor de 5080 goedkoper zal worden (misschien als er een goede aanval vanuit AMD komt). Er zit zo een groot gat tussen 5080 en 5090, dat ik sowieso na een 4090 geen 5080 zou willen kopen, maar wellicht wel een 5080 Ti / Super en anders een 5090.
Met de huidige connector / stroom (non-)veiligheidsproblemen ben ik ook een beetje gaan afwachten. Ik heb zo een vermoeden dat we een hele andere connector gaan zien op de 6000 series.
Wanneer, dat weet alleen Nvidia. Maar dit jaar? Most likely!
M3P 24'
Ik zou idealiter gewoon elk setje VRMs aan één pin hebben zitten, dan weet je max stroom per VRM. Tegelijk is het voordeel hiervan misschien juist weer als je slecht contact hebt, de pin automatisch minder stroom krijgt, waardoor mogelijk minder snel problemen gebeuren? En ik weet niet in hoeverre elke VRM fase redelijk constante max stroom levert.!mark schreef op vrijdag 14 februari 2025 @ 17:49:
[...]
Waarom Nvidia ervoor gekozen heeft om sinds de 40 Series geen enkele controle meer te doen op de input zoals de RTX3090(Ti) wel deed volgens die video van DerBauer begrijp ik daarom simpelweg ook niet, het zal vast een paar cent schelen aan componenten maar met deze alsmaar hogere prijzen klinkt dat wel een beetje als verkeerde zuinigheid.
Als eerst, in zijn algemeenheid zijn zulk soort posts ideaal om karma te farmen. Verder kan ik eerlijk zijn, ik ben niet op de hoogte hoeveel marge je nodig hebt bij die connectoren. Ik weet als je een chip koopt waarbij staat dat hij 1A kan leveren als minimum bijvoorbeeld. Dan moet hij in elke mogelijke situatie die binnen zijn specs valt (eg van heel warm tot heel koud) altijd minimaal dat kunnen leveren. Als je een connector eerst met vet insmeert, dan doet hij het natuurlijk niet echt lekker meer. Dus er zijn limieten. Maar in hoeverre je die moet overdimensioneren, ik weet het niet.atthias schreef op vrijdag 14 februari 2025 @ 17:16:
wat vinden anderen van deze take van een certified electrical engineer?
voor mij als leek lijkt het neer te komen op het feit dat Nvidia dus wilde besparen op veiligheid onderdelen in het maken van de aansluiting aan de GPU kant en daar mee de connector lekker gemold heeft
https://old.reddit.com/r/...eers_take_on_12vhpwr_and/
nogmaals ben een leek maar dit verhaal klinkt goed en ik ben oprecht nieuwsgierig wat anderen hiervan vinden
Lijkt mij snel, en binnen 3 maanden lijkt mij echt niet.Vissa66 schreef op vrijdag 14 februari 2025 @ 20:02:
[...]
Dat er iets tussen de 5080 en 5090 gaat komen is overduidelijk, dat gat is zo groot. Een 5080ti/super gaat er zeker weten komen.
Wanneer, dat weet alleen Nvidia. Maar dit jaar? Most likely!
zeker maar nogmaals voor mij als leek klinkt dit goed onderbouwt vandaar dat ik het hier even deel want hier zitten vast mensen die mij meer kunnen vertellenSissors schreef op vrijdag 14 februari 2025 @ 20:05:
[...]
Ik zou idealiter gewoon elk setje VRMs aan één pin hebben zitten, dan weet je max stroom per VRM. Tegelijk is het voordeel hiervan misschien juist weer als je slecht contact hebt, de pin automatisch minder stroom krijgt, waardoor mogelijk minder snel problemen gebeuren? En ik weet niet in hoeverre elke VRM fase redelijk constante max stroom levert.
[...]
Als eerst, in zijn algemeenheid zijn zulk soort posts ideaal om karma te farmen. Verder kan ik eerlijk zijn, ik ben niet op de hoogte hoeveel marge je nodig hebt bij die connectoren. Ik weet als je een chip koopt waarbij staat dat hij 1A kan leveren als minimum bijvoorbeeld. Dan moet hij in elke mogelijke situatie die binnen zijn specs valt (eg van heel warm tot heel koud) altijd minimaal dat kunnen leveren. Als je een connector eerst met vet insmeert, dan doet hij het natuurlijk niet echt lekker meer. Dus er zijn limieten. Maar in hoeverre je die moet overdimensioneren, ik weet het niet.
bedankt voor je reactie in ieder geval
Minstens een jaar wachten op een refresh.
Net zoals er van de 4000 serie een refresh kwam?Sjonniebwoi schreef op vrijdag 14 februari 2025 @ 20:33:
Minstens een jaar wachten op een refresh.
Zolang dit bij enkele gevallen blijft, wat ook bij de 4000 serie het geval was, gaat Nvidia niks refreshen.
Ik ga mijn Corsair kabel toch ook nog maar even nakijken morgen, just to be sure.Help!!!! schreef op vrijdag 14 februari 2025 @ 19:41:
Dit was mij ook al vele jaren geleden opgevallen echter altijd erop vertrouwd dat 'de engineers' weten wat ze doen.
Terecht of onterecht?
[YouTube: I discovered something concerning and I need the Experts to chime in... More 12VHPWR discovery!]
[ Voor 44% gewijzigd door Vissa66 op 14-02-2025 20:44 ]
M3P 24'
In 3 mnd? Absoluut niet.GTX404 schreef op vrijdag 14 februari 2025 @ 19:30:
Denken jullie dat er weer ongeveer 3 maanden na launchdatum een 5080 Super komt? En dan misschien voor 200 euro meer of zelfs dezelfde MSRP als de 5080, waardoor de 5080 goedkoper zal worden (misschien als er een goede aanval vanuit AMD komt). Er zit zo een groot gat tussen 5080 en 5090, dat ik sowieso na een 4090 geen 5080 zou willen kopen, maar wellicht wel een 5080 Ti / Super en anders een 5090.
Met de huidige connector / stroom (non-)veiligheidsproblemen ben ik ook een beetje gaan afwachten. Ik heb zo een vermoeden dat we een hele andere connector gaan zien op de 6000 series.
Over 1 jaar? Misschien?
Niemand - op Nvidia na - weet daar de antwoord op.
Zit er een groot gat tussen 5080-5090? Ja.
Wilt iedereen een 5080 met 24 gb? Ja.
Kijken wij naar de 4080 en 4090 is er geen 4080ti gekomen. Alleen een 4080s voor een betere prijs punt omdat 4080 oorspronkelijk te duur was (1200 US dollar zonder tax vs 1000 US dollar zonder tax).
Ik las ook al geruchten over de 60X0 serie en dat ze geen grote stappen vooruit meer verwachten. Logischer wijze laten ze dan 5080 super met 24 gb achter de hand voor de 6080.
Maar dat is mijn gedachtegang maar i.i.g. voor komende jaar hoef je geen refresh of update te verwachten. Nvidia gaat pas een impuls krijgen als de verkoop stagneer en op dit moment is er alles behalve sprake van stagnatie van de verkoop.
,ik ookVissa66 schreef op vrijdag 14 februari 2025 @ 20:39:
[...]
Net zoals er van de 4000 serie een refresh kwam?
Zolang dit bij enkele gevallen blijft, wat ook bij de 4000 serie het geval was, gaat Nvidia niks refreshen.
[...]
Ik ga mijn Corsair kabel toch ook nog maar even nakijken morgen, just to be sure.
[ Voor 3% gewijzigd door freaky35 op 14-02-2025 20:52 ]
Dat heb ik ook gedaan, al gebruik ik mijn native Corsair 12VPWHR nu niet (Nvidia adapter), maar ik zie bij mij ook dat de contacten niet allemaal op dezelfde diepte zitten. Er is duidelijk verschil te zien. Deze kabel heb ik trouwens tientallen keren geprikt bij het testen van verschillende kaarten, dus hij zou eigenlijk al als versleten moeten worden beschouwd.freaky35 schreef op vrijdag 14 februari 2025 @ 20:50:
[...]
,ik ook,ik ga coor de zekerheid die stekker ook maar even nakijken van de kabel ie ik gebruik van coarsair.
Waarom zouden ze? Mensen buitelen nog steeds over elkaar heen om een 5080 te kopen. Zeker een jaar voordat er iets van een super gen zal komen....GTX404 schreef op vrijdag 14 februari 2025 @ 19:30:
Denken jullie dat er weer ongeveer 3 maanden na launchdatum een 5080 Super komt? En dan misschien voor 200 euro meer of zelfs dezelfde MSRP als de 5080, waardoor de 5080 goedkoper zal worden (misschien als er een goede aanval vanuit AMD komt). Er zit zo een groot gat tussen 5080 en 5090, dat ik sowieso na een 4090 geen 5080 zou willen kopen, maar wellicht wel een 5080 Ti / Super en anders een 5090.
Met de huidige connector / stroom (non-)veiligheidsproblemen ben ik ook een beetje gaan afwachten. Ik heb zo een vermoeden dat we een hele andere connector gaan zien op de 6000 series.
Er zijn twee problemen hiermee:GG85 schreef op vrijdag 14 februari 2025 @ 17:23:
Jongens jongens wat is iedereen weer lekker los aan het gaan over nVidia en hun power connector.
Volgens mij is er allemaal niet zoveel aan de hand behalve:
-Slechte 3rd party kabels (slecht gemaakt of gewoon slechte kwaliteit uberhaupt)
-User error door verkeerd insteken of door verloopjes te gebruiken.
De influencers gaan uiteraard weer helemaal los maar de meesten weten van de hoed nog de rand laat staan dat ze een relevante technische achtergrond hebben.
Laten we bij het begin beginnen: is 600W teveel om door 6 PWR en 6 GND pinnen te jassen? Nee.
Laten we eens kijken naar bijvoorbeeld de Amphenol (een gerenommeerde connector fabrikant) variant van 12VHPR (spec hier)
Zij specificeren het volgende:
[Afbeelding]
Ofwel, 6x 9,5A = 54A * 12V = 684W - wat derating = 600W.
Hoe garanderen ze dat? Door hun pinnen en kabel nauwkeurig te specificeren:
Bijv:
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
Neem van mij aan, als je zo een kabel hebt is er niets aan de hand en werkt alles prima. Het probleem zit hem dan ook niet in de 12VHPR standaard, het probleem zit hem in de implementatie.
Third party fabrikanten gebruiken bijv. andere materialen, goedkopere krimpcontacten, een handmatig proces om kabels te krimpen, goedkoop kabel materiaal, testen niet alles, etc. etc.
En dan heb je nog sommige gebruikers die verloopjes gebruiken, de connector toch niet goed aandrukken of zoveel kracht op de connector zetten (scherpe hoek bijv) dat (toch al goedkope pinnen) slecht contact maken.
De influencers springen er uiteraard op in en maken gretig filmpjes, dat is tenslotte hun ding en daar verdienen ze geld mee.
Neem die laatste, "ik knip een paar aders door en oh help, er loopt meer stroom door de overgebleven aders". Joh, Sherlock, je meent het.......
Sorry, even mij onsamenhangende rant.
Disclamer: ontwerp al een jaar of 15 Elektronica waarvan een jaar of 2 servermoederborden voor AI servers.
1) Ik kan me werkelijk niet voorstellen dat wel component dan ook van een server, ontworpen zal worden met zo weinig marges en redundantie. Nvidia probeert hier bijna 600W door een connector en kabel te krijgen die maximaal 684W aankan. En dat doen ze met een connector ontwerp dat al fragiel gebleken is in meerdere gebieden. Er is een limiet hoe vaak je de connector opnieuw mag inpluggen. Je moet de connector ook goed inpluggen. Er zijn aanpassingen gedaan aan het ontwerp om te detecteren of de connector daadwerkelijk goed ingeplugd is, want dat komt zo vaak voor met dit soort connectoren.
2) Dit gaat inmiddels niet meer om de connector, de kabels, bouwkwaliteit van de onderdelen, assemblagekwaliteit of installatie. Inmiddels gaat het erom dat er geen enkel betrouwbaar mechanisme in dit hele ontwerp zit om current balancing goed te doen. Dat zou op het PCB van de videokaart moeten plaatsvinden en dat is er niet. Dat is hier het probleem.
En dat liet DerBauer zien door even vier van de zes kabels door te knippen. Daarna werkte het gewoon nog steeds. Dan gaan die overgebleven twee kabels uiteindelijk smelten. Dat is het punt, er is geen balansmechanisme die dit voorkomt, in tegenstelling tot de RTX30 connector of 6/8 pin.
Dit bizar slechte ontwerp heeft zes kabels en pinnen die elk 9.5A aan moeten kunnen. Maar het ontwerp combineert al het vermogen weer tot een tussen de kabels en de pinnen. Dit in tegenstelling tot het originele ontwerp voor de RTX30 serie, waar Nvidia tenminste nog drie paren van twee kabels en pinnen gebruikte die gescheiden waren. Dan krijg je dus paren die gezamenlijk 200W kunnen leveren. Met RTX40 en RTX50 heb je 600W over zes kabels, wat samenkomt in de connector, waarna dit weer verdeeld word over de pinnen. Er zit geen balanceermechanisme in. Daarom lijk je dus willekeurig smeltende connectoren of kabels te krijgen. Wat er precies gebeurd waarom is nog niet duidelijk. Ik kan wel gaan speculeren op kleine fouten in bouwkwaliteit of assemblage, maar ik weet het niet. Wat wel duidelijk is, is dat het pure willekeur en totaal onnodig is om zo'n connector te ontwerpen. Het is gewoon slechter dan wat RTX30 had, en dat werkte tenminste. De enige reden waarom je dit zou willen als Nvidia, is dat je zo lekker kan besparen op PCB kosten op een videokaart die minstens $2000 kost...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Maar dat is een implementatie ding dus. En zijn echt alle GPUs met een 6/8 pin connector zo gemaakt dat ze alleen werken als elke van de ~16-24 pinnen die gebruikt worden goed contact maken?DaniëlWW2 schreef op vrijdag 14 februari 2025 @ 21:33:
[...]
En dat liet DerBauer zien door even vier van de zes kabels door te knippen. Daarna werkte het gewoon nog steeds. Dan gaan die overgebleven twee kabels uiteindelijk smelten. Dat is het punt, er is geen balansmechanisme die dit voorkomt, in tegenstelling tot de RTX30 connector of 6/8 pin.
Onder de streep denk ik dat passief monitoren wat ASUS doet (bij hun duurste kaart) misschien wel het beste is. Ja het forceert niet gelijke stroom door alle kabels, maar dat betekend wel dat als ééntje minder verbinding maakt, niet nog steeds 9A door die slechte verbinding geforceerd wordt.
6/8 pin is echt een kromme standaard. In theorie heeft 6 pin maar twee pinnen en 75W en 8 pin drie pinnen en 150W. In de praktijk hebben de meeste 6 pin connectoren wel drie pinnen. Maar omdat die standaard zo los is en zoveel capabeler in de praktijk, krijg je dus wel balancering op het PCB. Dat is wat Buildzoid uitlegde en DerBauer stimuleerde om gewoon eens wat kabels door te knippen ter validatie.Sissors schreef op vrijdag 14 februari 2025 @ 21:42:
[...]
Maar dat is een implementatie ding dus. En zijn echt alle GPUs met een 6/8 pin connector zo gemaakt dat ze alleen werken als elke van de ~16-24 pinnen die gebruikt worden goed contact maken?
Onder de streep denk ik dat passief monitoren wat ASUS doet (bij hun duurste kaart) misschien wel het beste is. Ja het forceert niet gelijke stroom door alle kabels, maar dat betekend wel dat als ééntje minder verbinding maakt, niet nog steeds 9A door die slechte verbinding geforceerd wordt.
Wat ASUS doet is al beter, maar het is nog steeds geen gesloten systeem dat zichzelf uitschakelt als er een limiet overschreden word. Verder probeert ASUS om het probleem te werken, maar kunnen ze het niet verhelpen. Dat zou alleen kunnen als ze een andere connector zouden gebruiken, zoals die van de RTX30 series, en dan ook een compleet ander PCB ontwerpen en dit ook nog eens goedgekeurd krijgen door Nvidia. Ik zie dat niet gebeuren gezien de verplichting om deze connector te gebruiken.
Want het is een publiek geheim dat PCB ontwerpen worden goedgekeurd door Nvidia en AMD voordat ze in productie mogen. Dit is overigens ook waarom je zeker bij AMD, zoveel videokaarten ziet die allemaal hetzelfde of een zeer vergelijkbaar PCB ontwerp gebruiken voor dezelfde chips. Dat zijn altijd referentieontwerpen van AMD. Dat is niet veel anders bij Nvidia. Meestal zijn alleen de high end modellen afwijkend.
edit: Volgens Hardwareluxx waren er AIB's die een beter ontwerp wenste, en Nvidia wou er niks van weten...
https://www-hardwareluxx-...x_tr_hl=nl&_x_tr_pto=wapp
edit 2: Deze reactie is van iemand die claimt te werken voor Intel als ingenieur. Tja, die is ook zwaar niet onder de indruk van dit ontwerp, legt wat dingen uit en stelt eigenlijk dat die niet meer dan 375W zou vertrouwen door deze connector. Dit omdat je dan in theorie maximaal iets meer dan 5,2A per pin hebt. Er zijn 8,5A en 9A pins, voor beiden heb je dan een grotere veiligheidsfactor. Dat sluit ook aan bij de problemen die voornamelijk voorkomen bij de RTX4090 en RTX5090 en soms bij de RTX4080 en RTX5080 die tegen de 375W kunnen zitten met bijvoorbeeld een OC.
https://www-reddit-com.tr...x_tr_hl=nl&_x_tr_pto=wapp
[ Voor 21% gewijzigd door DaniëlWW2 op 14-02-2025 22:35 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
En is een goed voorbeeld waarom experts heel duidelijke moeten maken wat ze precies bedoelen. En goed nadenken over hoe andere mensen (die al een bepaalde mening hebben) die informatie gerbuiken. Na een doorvragen door iemand in die thread komt hij met:DaniëlWW2 schreef op vrijdag 14 februari 2025 @ 21:58:
[...]Deze reactie is van iemand die claimt te werken voor Intel als ingenieur. Tja, die is ook zwaar niet onder de indruk van dit ontwerp, legt wat dingen uit en stelt eigenlijk dat die niet meer dan 375W zou vertrouwen door deze connector. Dit omdat je dan in theorie maximaal iets meer dan 5,2A per pin hebt. Er zijn 8,5A en 9A pins, voor beiden heb je dan een grotere veiligheidsfactor. Dat sluit ook aan bij de problemen die voornamelijk voorkomen bij de RTX4090 en RTX5090 en soms bij de RTX4080 en RTX5080 die tegen de 375W kunnen zitten met bijvoorbeeld een OC.
https://www-reddit-com.tr...x_tr_hl=nl&_x_tr_pto=wapp
Dat is nogal anders dan wat hij in zijn orinele post lijkt te zeggen. En grotendeels hetzelfde als de redelijke reacties op het tweakers forum. Maar hij houdt wel vast aan zijn mening over lagere powerlimits. Maar nu is tenminste duidelijke dat dit gebaseerd is op een misvatting. Als Nvidia tot een keuze gedwongen wordt tussen load sensing/balancing per pin of lagere belasting, is het niet aan hem om te beslissen wat dat gaat worden.I also go over board design problems in the post. In fact Buildzoid is who clued me in to that side of it. Both sides here are problems, that when compounded like this, get us here. The 12-pin has less margin until it maxes out its rating than the 6 and 8-pin, and an unregulated current balance makes it much easier to accidentally blow past that rating and get into the temperature ranges where plastic melts.
Either problem by itself wouldn't be that big of a deal. A well balanced connector can go right to that pin rating limit safely precisely because of their extra safety factor (people didn't melt OCd 3090tis), but since nobody wants to put in the work to regulate them, the alternative is to add back some margin somewhere.
welke misvatting is dat dan precies?cnieuweboer schreef op zaterdag 15 februari 2025 @ 06:27:
[...]
En is een goed voorbeeld waarom experts heel duidelijke moeten maken wat ze precies bedoelen. En goed nadenken over hoe andere mensen (die al een bepaalde mening hebben) die informatie gerbuiken. Na een doorvragen door iemand in die thread komt hij met:
[...]
Dat is nogal anders dan wat hij in zijn orinele post lijkt te zeggen. En grotendeels hetzelfde als de redelijke reacties op het tweakers forum. Maar hij houdt wel vast aan zijn mening over lagere powerlimits. Maar nu is tenminste duidelijke dat dit gebaseerd is op een misvatting. Als Nvidia tot een keuze gedwongen wordt tussen load sensing/balancing per pin of lagere belasting, is het niet aan hem om te beslissen wat dat gaat worden.
Temperatuur meten in de kabel kan een goede oplossing zijn:
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Gisteren voor het eerst eens gespeeld met de RTX 5080 Ventus 3x OC. De power limit op 80%, core clock +300Mhz en mem clock +2000Mhz. Kaart lijkt dan stabiel, iig nog geen crashed of artifacts oid gezien.
Tijdens enkele korte benchmarks tikt hij regelmatig enigszins stabiel de 3000Mhz aan waarbij het verbruik niet boven de 300W uitkomt, echter vind ik de temps wel behoorlijk hoog met uitschieters laag in de 80 graden. Dus mijn eerste gedachte is dat de cooling van de Ventus misschien niet de beste is.
Tijdens enkele korte benchmarks tikt hij regelmatig enigszins stabiel de 3000Mhz aan waarbij het verbruik niet boven de 300W uitkomt, echter vind ik de temps wel behoorlijk hoog met uitschieters laag in de 80 graden. Dus mijn eerste gedachte is dat de cooling van de Ventus misschien niet de beste is.
Is dat niet overduidelijk? Nvidia heeft bij de 4000- en 5000-series ervoor gekozen om noch A (fatsoenlijke load balancing of een vorm van overbelastingsbeveiliging per pin) noch B (minder stroom per stekker) toe te passen. Die Intel-engineer zegt dat A of B nodig is om alles veilig te krijgen. Maar omdat hij stelt dat Nvidia A niet wil, concludeert hij dat B de oplossing is en schrijft daar een verhaal over. Hij negeert daarbij dat Nvidia voor de 4000- en 5000-series B ook niet wil.
Dit speelt in op de bestaande ophef over punt B, en legt de vinger niet op de zere plek (de combinatie van A en B ). Daarbij heeft punt A volgens mij veel meer invloed en moet ook worden aangepakt met andere of extra stekkers. En als punt A goed is opglost is punt B niet heel relevant meer, zoals die engineer dus later ook erkent. Nadat er naar gevraagd wordt door iemand anders.
Correcte en duidelijke informatie is belangrijk, zodat eindgebruikers een goed onderbouwde beslissing kunnen nemen over hoe ze het best met de situatie omgaan. Als tech-enthousiastelingen eigenlijk wel weten wat er aan de hand is, maar dit soort dingen te eenzijdig bespreken, kan iemand die iets minder geïnteresseerd is compleet verkeerd geïnformeerd worden.
dat was voor mij niet overduidelijk nu snap ik waar je "probleem" zit dankjewelcnieuweboer schreef op zaterdag 15 februari 2025 @ 11:37:
[...]
Is dat niet overduidelijk? Nvidia heeft bij de 4000- en 5000-series ervoor gekozen om noch A (fatsoenlijke load balancing of een vorm van overbelastingsbeveiliging per pin) noch B (minder stroom per stekker) toe te passen. Die Intel-engineer zegt dat A of B nodig is om alles veilig te krijgen. Maar omdat hij stelt dat Nvidia A niet wil, concludeert hij dat B de oplossing is en schrijft daar een verhaal over. Hij negeert daarbij dat Nvidia voor de 4000- en 5000-series B ook niet wil.
Dit speelt in op de bestaande ophef over punt B, en legt de vinger niet op de zere plek (de combinatie van A en B ). Daarbij heeft punt A volgens mij veel meer invloed en moet ook worden aangepakt met andere of extra stekkers. En als punt A goed is opglost is punt B niet heel relevant meer, zoals die engineer dus later ook erkent. Nadat er naar gevraagd wordt door iemand anders.
Correcte en duidelijke informatie is belangrijk, zodat eindgebruikers een goed onderbouwde beslissing kunnen nemen over hoe ze het best met de situatie omgaan. Als tech-enthousiastelingen eigenlijk wel weten wat er aan de hand is, maar dit soort dingen te eenzijdig bespreken, kan iemand die iets minder geïnteresseerd is compleet verkeerd geïnformeerd worden.
Je kan je ook afvragen hoe verantwoord/verstandig het nog is om dit soort apparaten wat flink vermogen trekt nog door niet gecertificeerde personen zelf aan te laten sluiten. Het hele PC bouwen is op zich prima te doen maar als je al bijna elektricien moet zijn om tegenwoordig te beoordelen of je je GPU wel veilig aan je PSU kan koppelen dan zijn we denk ik te ver doorgeslagen.
Helaas een probleem met mn PNY 5080 OC
1 van de fans maakt een licht geluid maar wel irritant, de middelste fan is de veroorzaker.
Zie niet dat het wat raakt en met de hand hoor je ook niks.
Is het nog oplosbaar of wordt dit een RMA?
Zie filmpje
1 van de fans maakt een licht geluid maar wel irritant, de middelste fan is de veroorzaker.
Zie niet dat het wat raakt en met de hand hoor je ook niks.
Is het nog oplosbaar of wordt dit een RMA?
Zie filmpje
Lijkt haast of er iets los zit in je gpu wat ratelend geluid maaktjbergers schreef op zaterdag 15 februari 2025 @ 14:11:
Helaas een probleem met mn PNY 5080 OC
1 van de fans maakt een licht geluid maar wel irritant, de middelste fan is de veroorzaker.
Zie niet dat het wat raakt en met de hand hoor je ook niks.
Is het nog oplosbaar of wordt dit een RMA?![]()
Zie filmpje[YouTube: 15 februari 2025]
Als ik de middelste fan stop dan is het geluid ook weg.Xlast88 schreef op zaterdag 15 februari 2025 @ 14:42:
[...]
Lijkt haast of er iets los zit in je gpu wat ratelend geluid maakt
Ik heb de tabel nog wat aangevuld.CMT schreef op vrijdag 14 februari 2025 @ 14:25:
[...]
Phoe daar ben je wel heel stellig in. Het is nog niet zeker wat de oorzaak is, maar hoofdverdachte en meest logische reden is verschil in de contact-/overgangsweerstanden. En mocht dat zo zijn, dan is de connector wel degelijk de bron van het probleem. Dat dit weer mogelijk is doordat Nvidia besloten heeft om een extra veiligheidslaag weg te halen (door de 12V lijnen aan de GPU kant samen te voegen) is bijzaak en één factor in een samenloop van omstandigheden.
Ja, een 8-pin (eigenlijk 6-pin) miniFit PCIe connector zal ook niet bestand zijn tegen 22A over een pin. Dat is gewoon ver over de absolute max. heen. En als dit een resultaat is omdat men de 12V/GND lijnen aan elkaar heeft gevoegd aan de GPU kant, dan geldt dezelfde kritiek.
Ik had het al eerder gepost en dacht dat de tabel voor zich zou spreken. Maar hier dan nog een keer:
[Afbeelding]
Vooral de laatste twee rijen zijn interessant. Dat is dus het verschil van enkel het opnieuw insteken van de connector en het verschil tussen goed en slecht. Let ook op dat het vermogen bij de slechte verbinding 45W lager ligt, dus de stroom/pin zal nog verder over de absolute max. heen gaan dan het al doet.
Dit mag gewoon niet gebeuren hoe dan ook. Dit is over een harde toelaatbare technische grens heen.
Beter bewijs dat de connector niet deugd kan ik mij niet bedenken, men moet wel heel naïef zijn om de connector of de implementatie daarvan (daaronder schaar ik de keuze voor (g)een veiligheidsmarge) niet te verwijten.
:strip_exif()/f/image/7xpMEE0xNa7qkQkufGKGYUnL.jpg?f=fotoalbum_large)
De tabel laat goed zien dat de kleine micro-fit pinnen niet altijd goed contact maken en er kunnen verschillen in contactweerstand ontstaan. Dan gaat de stroom (zonder actieve balancing) over de 6 pinnen verdelen aan de hand van de contactweerstanden.
De 2 kolommen aan de rechterkant laat zien dat als de pinnen en contacten een keertje mechanisch geschraapt is, dan maken ze beter contact en maximale afwijking in de stroomverdeling is dat 1 pin 10% van het ideale gemiddelde afwijkt.
Ik merk op dat als je de stromen in de meest kolom sommeert, dan kom je op 45,8 A uit. Voor 575W moet de spanning hoger dan mijn aanname (12,0V) zijn. 575W / 45,8A = 12,55V is aan de hoge kant. Dan is 575W de TGP en niet het gemeten vermogen.
Met gemiddelde bedoel ik de verwachte stroom door een pin bij ideale stroomverdeling, vermogen zoals opgegeven en 12,0V.
Ik heb in het verleden al over de 6-pin en 8-pin gepost: rapture in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Bij 6-pin en 8-pin wordt aangenomen dat je een +12V pin volledig mag onderbreken en de resterende +12V pin(nen) kunnen de stroom nog gemakkelijk aan zonder buiten specs te gaan.
Als je de pinnen parallel zet zonder actieve stroomverdeling of -monitoring, dan moet je aannemen dat als 1 pin niets meer doorgeeft dan moeten de resterende pinnen nog gemakkelijk 50A aankunnen.
Ik zie in de datasheet veel voorwaarden of een lange disclaimer.GG85 schreef op vrijdag 14 februari 2025 @ 17:23:
Jongens jongens wat is iedereen weer lekker los aan het gaan over nVidia en hun power connector.
Volgens mij is er allemaal niet zoveel aan de hand behalve:
-Slechte 3rd party kabels (slecht gemaakt of gewoon slechte kwaliteit uberhaupt)
-User error door verkeerd insteken of door verloopjes te gebruiken.
De influencers gaan uiteraard weer helemaal los maar de meesten weten van de hoed nog de rand laat staan dat ze een relevante technische achtergrond hebben.
Laten we bij het begin beginnen: is 600W teveel om door 6 PWR en 6 GND pinnen te jassen? Nee.
Laten we eens kijken naar bijvoorbeeld de Amphenol (een gerenommeerde connector fabrikant) variant van 12VHPR (spec hier)
Zij specificeren het volgende:
[Afbeelding]
Ofwel, 6x 9,5A = 54A * 12V = 684W - wat derating = 600W.
Hoe garanderen ze dat? Door hun pinnen en kabel nauwkeurig te specificeren:
Bijv:
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
Neem van mij aan, als je zo een kabel hebt is er niets aan de hand en werkt alles prima. Het probleem zit hem dan ook niet in de 12VHPR standaard, het probleem zit hem in de implementatie.
Third party fabrikanten gebruiken bijv. andere materialen, goedkopere krimpcontacten, een handmatig proces om kabels te krimpen, goedkoop kabel materiaal, testen niet alles, etc. etc.
En dan heb je nog sommige gebruikers die verloopjes gebruiken, de connector toch niet goed aandrukken of zoveel kracht op de connector zetten (scherpe hoek bijv) dat (toch al goedkope pinnen) slecht contact maken.
De influencers springen er uiteraard op in en maken gretig filmpjes, dat is tenslotte hun ding en daar verdienen ze geld mee.
Neem die laatste, "ik knip een paar aders door en oh help, er loopt meer stroom door de overgebleven aders". Joh, Sherlock, je meent het.......
Sorry, even mij onsamenhangende rant.
Disclamer: ontwerp al een jaar of 15 Elektronica waarvan een jaar of 2 servermoederborden voor AI servers.
Alsof dat het management aan ingenieurs gevraagd hebben om een "onmogelijke" kleine connector voor 50A bij 12V te laten maken. Deze keer geen veiligheidsfactor of -marge excuses en de ingenieurs zeiden "Jawohl herr sturmbannführer!".
Dat je zoiets moet ontwerpen om het overgewichtsprobleem van de Joint Strike Fighter aan te pakken om de F-35 mogelijk te maken, kan ik begrijpen. In aerospace of militaire toepassingen kan je verwachten dat mensen aan speciale procedures moeten houden.
Een soldaat wordt gedrilld: erin rammen, eruit trekken, erin rammen, 3 keren slaan, visueel checken dat het echt volledig erin zit,... (en indien nodig check je ook de uitrusting van de soldaat die voor of naast jou staat) om fouten te voorkomen.
De 12VHPR is in niet-representatieve labo-omstandigheden goed bevonden. Ze hebben daar de connector al paar keren erin gestoken en eruit getrokken zodat de pinnen en contacten al mechanisch geschraapt zijn en klaar voor gebruik gemaakt is.
Ze hadden niet rekening gehouden met een nieuwe connector slechts eenmalig ingestoken. Dus we moeten zoals soldaten repetitieve bewegingen doen om de 12VHPR klaar voor gebruik te maken.
Het lijkt wel op een legerproduct built by the lowest bidder on a government contract en balanceert op de grens tussen het werkt en het werkt niet. De aangeleerde procedure is hoe je het werkend houdt zonder dat het in brand schiet of in je gezicht ontploft.
Deraten naar 375W is goed advies. 375W / 12V = 31,25A. Als 1 pin mag falen, dan wordt 31,25A over 5 pinnen verdeeld: 6,25A per pin.atthias schreef op vrijdag 14 februari 2025 @ 17:16:
wat vinden anderen van deze take van een certified electrical engineer?
voor mij als leek lijkt het neer te komen op het feit dat Nvidia dus wilde besparen op veiligheid onderdelen in het maken van de aansluiting aan de GPU kant en daar mee de connector lekker gemold heeft
https://old.reddit.com/r/...eers_take_on_12vhpwr_and/
nogmaals ben een leek maar dit verhaal klinkt goed en ik ben oprecht nieuwsgierig wat anderen hiervan vinden
In praktijk (der8auer heeft het gemeten) zal een pin minder dan helft doorgeven en door een andere pin gaat tot 4/10 meer stroom. 31,25A / 6 pinnen = 5,21A per pin en maal 1,4 is 7,3A. De pinnen die voor 8,5 of 9,5 A gemaakt zijn, kunnen 7,3A aan.
45.8 * 12 = 550W. Dan komt er een verrassend lage 25W uit PCIe slot zelf. Maar die is er dus ook nog.rapture schreef op zaterdag 15 februari 2025 @ 14:48:
[...]
Ik merk op dat als je de stromen in de meest kolom sommeert, dan kom je op 45,8 A uit. Voor 575W moet de spanning hoger dan mijn aanname (12,0V) zijn. 575W / 45,8A = 12,55V is aan de hoge kant. Dan is 575W de TGP en niet het gemeten vermogen.
[ Voor 184% gewijzigd door Sissors op 15-02-2025 14:54 ]
De PCIe slot was ik vergeten.Sissors schreef op zaterdag 15 februari 2025 @ 14:51:
[...]
45.8 * 12 = 550W. Dan komt er een verrassend lage 25W uit PCIe slot zelf. Maar die is er dus ook nog.
In de elektronica reken je met de worst case scenario alsof dat alle vermogen door de 12VHPR connector moet gaan.
[ Voor 18% gewijzigd door rapture op 15-02-2025 15:04 ]
bedankt voor je uitgebreide reactie dit is precies waar ik op hoopterapture schreef op zaterdag 15 februari 2025 @ 14:48:
[...]
Ik heb de tabel nog wat aangevuld.
[Afbeelding]
De tabel laat goed zien dat de kleine micro-fit pinnen niet altijd goed contact maken en er kunnen verschillen in contactweerstand ontstaan. Dan gaat de stroom (zonder actieve balancing) over de 6 pinnen verdelen aan de hand van de contactweerstanden.
De 2 kolommen aan de rechterkant laat zien dat als de pinnen en contacten een keertje mechanisch geschraapt is, dan maken ze beter contact en maximale afwijking in de stroomverdeling is dat 1 pin 10% van het ideale gemiddelde afwijkt.
Ik merk op dat als je de stromen in de meest kolom sommeert, dan kom je op 45,8 A uit. Voor 575W moet de spanning hoger dan mijn aanname (12,0V) zijn. 575W / 45,8A = 12,55V is aan de hoge kant. Dan is 575W de TGP en niet het gemeten vermogen.
Met gemiddelde bedoel ik de verwachte stroom door een pin bij ideale stroomverdeling, vermogen zoals opgegeven en 12,0V.
Ik heb in het verleden al over de 6-pin en 8-pin gepost: rapture in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Bij 6-pin en 8-pin wordt aangenomen dat je een +12V pin volledig mag onderbreken en de resterende +12V pin(nen) kunnen de stroom nog gemakkelijk aan zonder buiten specs te gaan.
Als je de pinnen parallel zet zonder actieve stroomverdeling of -monitoring, dan moet je aannemen dat als 1 pin niets meer doorgeeft dan moeten de resterende pinnen nog gemakkelijk 50A aankunnen.
[...]
Ik zie in de datasheet veel voorwaarden of een lange disclaimer.
Alsof dat het management aan ingenieurs gevraagd hebben om een "onmogelijke" kleine connector voor 50A bij 12V te laten maken. Deze keer geen veiligheidsfactor of -marge excuses en ingenieurs zeiden "Jawohl herr sturmbannführer!".
Dat je zoiets moet ontwerpen om het overgewichtsprobleem van de Joint Strike Fighter aan te pakken om de F-35 mogelijk te maken, kan ik begrijpen. In aerospace of militaire toepassingen kan je verwachten dat mensen aan speciale procedures moeten houden.
Een soldaat wordt gedrilld: erin rammen, eruit trekken, erin rammen, 3 keren slaan, visueel checken dat het echt volledig erin zit,... (en indien nodig check je ook de uitrusting van de soldaat die voor of naast jou staat) om fouten te voorkomen.
De 12VHPR is in niet-representatieve labo-omstandigheden goed bevonden. Ze hebben daar de connector al paar keren erin gestoken en eruit getrokken zodat de pinnen en contacten al mechanisch geschraapt zijn en klaar voor gebruik gemaakt is.
Ze hadden niet rekening gehouden met een nieuwe connector slechts eenmalig ingestoken. Dus we moeten zoals soldaten repetitieve bewegingen doen om de 12VHPR klaar voor gebruik te maken.
Het lijkt wel op een legerproduct built by the lowest bidder on a government contract en balanceert op de grens tussen het werkt en het werkt niet. De aangeleerde procedure is hoe je het werkend houdt zonder dat het in brand schiet of in je gezicht ontploft.
[...]
Deraten naar 375W is goed advies. 375W / 12V = 31,25A. Als 1 pin mag falen, dan wordt 31,25A over 5 pinnen verdeeld: 6,25A per pin.
In praktijk (der8auer heeft het gemeten) zal een pin minder dan helft doorgeven en door een andere pin gaat tot 4/10 meer stroom. 31,25A / 6 pinnen = 5,21A per pin en maal 1,4 is 7,3A. De pinnen die voor 8,5 of 9,5 A gemaakt zijn, kunnen 7,3A aan.
Dat lijkt me best wel hoog. Mijn MSI gaming trio komt niet boven de 66 graden. Power limit 100% en standaard OC via Nvidea app er op. Draait nu gemiddels 2900mhz.Lord_Dain schreef op zaterdag 15 februari 2025 @ 10:44:
Gisteren voor het eerst eens gespeeld met de RTX 5080 Ventus 3x OC. De power limit op 80%, core clock +300Mhz en mem clock +2000Mhz. Kaart lijkt dan stabiel, iig nog geen crashed of artifacts oid gezien.
Tijdens enkele korte benchmarks tikt hij regelmatig enigszins stabiel de 3000Mhz aan waarbij het verbruik niet boven de 300W uitkomt, echter vind ik de temps wel behoorlijk hoog met uitschieters laag in de 80 graden. Dus mijn eerste gedachte is dat de cooling van de Ventus misschien niet de beste is.
Ik heb dezelfde Ventus. 90% powerlimit en +200 en +400. Volgens mij rond de 65 graden met gamen. Welke benchmark tool?Resouled schreef op zaterdag 15 februari 2025 @ 16:30:
[...]
Dat lijkt me best wel hoog. Mijn MSI gaming trio komt niet boven de 66 graden. Power limit 100% en standaard OC via Nvidea app er op. Draait nu gemiddels 2900mhz.
Correctie.. tikt de 70c aan (hellblade 2 1440P Ultra)
[ Voor 6% gewijzigd door Bas81 op 15-02-2025 17:10 ]
Ik gok dat de middelste fan iets aanraakt aan de binnenkant. Lijkt me helaas een RMA/ refund verhaaljbergers schreef op zaterdag 15 februari 2025 @ 14:45:
[...]
Als ik de middelste fan stop dan is het geluid ook weg.
Mwah ligt aan het ontwerp of dat een eerlijk scenario is of niet. Het is zeker geen standaard regel in de elektronica.rapture schreef op zaterdag 15 februari 2025 @ 15:00:
[...]
De PCIe slot was ik vergeten.
In de elektronica reken je met de worst case scenario alsof dat alle vermogen door de 12VHPR connector moet gaan.
Laat ik even wat positiefs posten. Mijn 5090FE is vanochtend plots aangekomen
.
Ik kan mij haast niet voorstellen dat er maar twee weken voorbij zijn sinds de launch, het voelt aan als twee maanden. Zonder de hulp van mede tweakers was het ook niet gelukt. Daar ben ik zeker van. Dus heel erg bedankt allemaal.
:strip_exif()/f/image/PyPG7LRCZZvAeozQ5t53MjV1.jpg?f=fotoalbum_large)
De kaart straalt in het echt één en al klasse uit. Echt heel knap wat Nvidia daarmee gedaan heeft en voor mijn beoogde max. van 450W is de koeler ook prima. Zoals vanouds is het uitpakken ook weer een hele beleving.
Ik vind de meegeleverde verloopkabel verder een grote verbetering! Dit is echt soepel te noemen en ware het niet dat ik al een verloopkabel in huis had, dan had ik geen bezwaar om dit te gebruiken.
Gek genoeg zat er verder geen boekje met garantiebepalingen of een waarschuwingskaartje bij.
Hoe komen mensen aan de waarschuwing dat de Nvidia verloopkabel gebruikt moet worden i.v.m. eventuele garantie?
:strip_exif()/f/image/VXQXPJA0m6LWQPQ0YWBquYnu.jpg?f=fotoalbum_large)
Mijn enig mekkerpuntje is wel dat de verloop niet in een plastic zakje gepakt is. Op deze manier kan er vuil/meuk in de contacten komen. Wat je hieronder ziet aan 'stof' is puur karton-meuk van de doos.
:strip_exif()/f/image/gF9Iixm7Dw9gmHsbyubKgAkO.jpg?f=fotoalbum_large)
En voor wie zich afvraagt waar het serienummer zit (moest er echt even naar zoeken), het zit op de achterkant van het I/O slotplaatje.
:strip_exif()/f/image/bIW5h33PxUMKrEUWIDssHX1n.jpg?f=fotoalbum_large)
Voor nu zit het in een Meshify S2 testkast. Wanneer de stroomtang binnen is zal ik aan de slag gaan en o.a. coilwhine metingen doen met een gekalibreerde mic setup.
De Corsair 12VHPWR naar 2x PCIe 8-pin verloop (zelf aangepast voor de Seasonic PSU) heeft al wat gebruik achter de rug, dus ik ben eigenlijk wel benieuwd naar hoe het zit met de stroomverdeling. Wat betreft het rustverbruik is de 5090FE wel een forse achteruitgang. Met een 7900XTX verbruikt dit systeem een stuk minder, met name in een multimonitor setup.
7900XTX enkel monitor: 46W
7900XTX dual monitor: 47W
5090FE enkel monitor: 57W
5090FE dual monitor: 66W
Gelukkig tot nu toe geen gekke problemen tegengekomen!
:strip_exif()/f/image/YCxMvd5suWIS6GtKRIBJHWHJ.jpg?f=fotoalbum_large)
User-error: *check*
:strip_exif()/f/image/yMlu4zrIFXcdoIjDfmscA5ND.jpg?f=fotoalbum_large)
Ik kan mij haast niet voorstellen dat er maar twee weken voorbij zijn sinds de launch, het voelt aan als twee maanden. Zonder de hulp van mede tweakers was het ook niet gelukt. Daar ben ik zeker van. Dus heel erg bedankt allemaal.
:strip_exif()/f/image/PyPG7LRCZZvAeozQ5t53MjV1.jpg?f=fotoalbum_large)
De kaart straalt in het echt één en al klasse uit. Echt heel knap wat Nvidia daarmee gedaan heeft en voor mijn beoogde max. van 450W is de koeler ook prima. Zoals vanouds is het uitpakken ook weer een hele beleving.
Ik vind de meegeleverde verloopkabel verder een grote verbetering! Dit is echt soepel te noemen en ware het niet dat ik al een verloopkabel in huis had, dan had ik geen bezwaar om dit te gebruiken.
Gek genoeg zat er verder geen boekje met garantiebepalingen of een waarschuwingskaartje bij.
Hoe komen mensen aan de waarschuwing dat de Nvidia verloopkabel gebruikt moet worden i.v.m. eventuele garantie?
:strip_exif()/f/image/VXQXPJA0m6LWQPQ0YWBquYnu.jpg?f=fotoalbum_large)
Mijn enig mekkerpuntje is wel dat de verloop niet in een plastic zakje gepakt is. Op deze manier kan er vuil/meuk in de contacten komen. Wat je hieronder ziet aan 'stof' is puur karton-meuk van de doos.
:strip_exif()/f/image/gF9Iixm7Dw9gmHsbyubKgAkO.jpg?f=fotoalbum_large)
En voor wie zich afvraagt waar het serienummer zit (moest er echt even naar zoeken), het zit op de achterkant van het I/O slotplaatje.
:strip_exif()/f/image/bIW5h33PxUMKrEUWIDssHX1n.jpg?f=fotoalbum_large)
Voor nu zit het in een Meshify S2 testkast. Wanneer de stroomtang binnen is zal ik aan de slag gaan en o.a. coilwhine metingen doen met een gekalibreerde mic setup.
De Corsair 12VHPWR naar 2x PCIe 8-pin verloop (zelf aangepast voor de Seasonic PSU) heeft al wat gebruik achter de rug, dus ik ben eigenlijk wel benieuwd naar hoe het zit met de stroomverdeling. Wat betreft het rustverbruik is de 5090FE wel een forse achteruitgang. Met een 7900XTX verbruikt dit systeem een stuk minder, met name in een multimonitor setup.
7900XTX enkel monitor: 46W
7900XTX dual monitor: 47W
5090FE enkel monitor: 57W
5090FE dual monitor: 66W
Gelukkig tot nu toe geen gekke problemen tegengekomen!
:strip_exif()/f/image/YCxMvd5suWIS6GtKRIBJHWHJ.jpg?f=fotoalbum_large)
User-error: *check*
:strip_exif()/f/image/yMlu4zrIFXcdoIjDfmscA5ND.jpg?f=fotoalbum_large)
:strip_exif()/f/image/kN5pLwaP8dYtI0vvKKnLdPR2.jpg?f=fotoalbum_large)
In het verleden, hadden de nVidia kaarten altijd een hoger verbruik met multi monitor opstellingen. De mem clock wordt dan hoger gezet tijdens idle. Ik weet niet of dat met de 50x0 kaarten ook zo is, met mijn 4090 in ieder geval wel.CMT schreef op zaterdag 15 februari 2025 @ 18:06:
Wat betreft het rustverbruik is de 5090FE wel een forse achteruitgang. Met een 7900XTX verbruikt dit systeem een stuk minder, met name in een multimonitor setup.
7900XTX enkel monitor: 46W
7900XTX dual monitor: 47W
5090FE enkel monitor: 57W
5090FE dual monitor: 66W
Zoek naar het programma nvidia inspector (is een al wat ouder hulp programma) en dan met de rechter muistoets “multi-display power saver” kiezen.
[ Voor 3% gewijzigd door jbbrans op 15-02-2025 19:03 ]
Gebruik de qr-code in het meegeleverde boekje.Gek genoeg zat er verder geen boekje met garantiebepalingen of een waarschuwingskaartje bij.
Hoe komen mensen aan de waarschuwing dat de Nvidia verloopkabel gebruikt moet worden i.v.m. eventuele garantie?
Bedankt voor de tip! Ik zie inderdaad dat de geheugenklok op 400 MHz blijft steken.jbbrans schreef op zaterdag 15 februari 2025 @ 19:01:
In het verleden, hadden de nVidia kaarten altijd een hoger verbruik met multi monitor opstellingen. De mem clock wordt dan hoger gezet tijdens idle. Ik weet niet of dat met de 50x0 kaarten ook zo is, met mijn 4090 in ieder geval wel.
Zoek naar het programma nvidia inspector (is een al wat ouder hulp programma) en dan met de rechter muistoets “multi-display power saver” kiezen.
Ik heb het programma gedownload en geprobeerd, maar ik kan nergens de genoemde optie vinden.
Waar precies moet er met de rechtermuis geklikt worden? Gevonden, helaas lukt het niet om de klok verder de verlagen in de laagste P8 powerstate. Het springt terug naar 400 MHz.
Bedankt dat je er mij op wijst, ik was er anders nooit op gekomen om daar te kijken.Degrader schreef op zaterdag 15 februari 2025 @ 19:13:
Gebruik de qr-code in het meegeleverde boekje.
[ Voor 17% gewijzigd door CMT op 16-02-2025 10:28 ]
Ik had hyperthreading uitgezet op mijn 14700K en toen kreeg ik de veelgehoorde problemen, zoals vastlopers en dat het scherm ineens op zwart valt. Dit was met de laatste driver, 572.42. Daarna hyperthreading weer aangezet en nu geen problemen meer. Opmerkelijk.
Waarom ligt er een stofdoekje in je case achter je PSU?CMT schreef op zaterdag 15 februari 2025 @ 18:06:
Laat ik even wat positiefs posten. Mijn 5090FE is vanochtend plots aangekomen.
Ik kan mij haast niet voorstellen dat er maar twee weken voorbij zijn sinds de launch, het voelt aan als twee maanden. Zonder de hulp van mede tweakers was het ook niet gelukt. Daar ben ik zeker van. Dus heel erg bedankt allemaal.
Wat een mooie kaart de 5090! Heel veel plezier ermee en veel game plezier toegewenst.CMT schreef op zaterdag 15 februari 2025 @ 18:06:
Laat ik even wat positiefs posten. Mijn 5090FE is vanochtend plots aangekomen.
Ik kan mij haast niet voorstellen dat er maar twee weken voorbij zijn sinds de launch, het voelt aan als twee maanden. Zonder de hulp van mede tweakers was het ook niet gelukt. Daar ben ik zeker van. Dus heel erg bedankt allemaal.
[Afbeelding]
De kaart straalt in het echt één en al klasse uit. Echt heel knap wat Nvidia daarmee gedaan heeft en voor mijn beoogde max. van 450W is de koeler ook prima. Zoals vanouds is het uitpakken ook weer een hele beleving.
Ik vind de meegeleverde verloopkabel verder een grote verbetering! Dit is echt soepel te noemen en ware het niet dat ik al een verloopkabel in huis had, dan had ik geen bezwaar om dit te gebruiken.
Gek genoeg zat er verder geen boekje met garantiebepalingen of een waarschuwingskaartje bij.
Hoe komen mensen aan de waarschuwing dat de Nvidia verloopkabel gebruikt moet worden i.v.m. eventuele garantie?
[Afbeelding]
Mijn enig mekkerpuntje is wel dat de verloop niet in een plastic zakje gepakt is. Op deze manier kan er vuil/meuk in de contacten komen. Wat je hieronder ziet aan 'stof' is puur karton-meuk van de doos.
[Afbeelding]
En voor wie zich afvraagt waar het serienummer zit (moest er echt even naar zoeken), het zit op de achterkant van het I/O slotplaatje.
[Afbeelding]
Voor nu zit het in een Meshify 2 testkast. Wanneer de stroomtang binnen is zal ik aan de slag gaan en o.a. coilwhine metingen doen met een gekalibreerde mic setup.
De Corsair 12VHPWR naar 2x PCIe 8-pin verloop heeft al wat gebruik achter de rug, dus ik ben eigenlijk wel benieuwd naar hoe het zit met de stroomverdeling. Wat betreft het rustverbruik is de 5090FE wel een forse achteruitgang. Met een 7900XTX verbruikt dit systeem een stuk minder, met name in een multimonitor setup.
7900XTX enkel monitor: 46W
7900XTX dual monitor: 47W
5090FE enkel monitor: 57W
5090FE dual monitor: 66W
Gelukkig tot nu toe geen gekke problemen tegengekomen!
[Afbeelding]
User-error: *check*
[Afbeelding]
[Afbeelding]
X570 Aorus Pro - Ryzen 7 5800X- Noctua NH-U14S - FSP Hydro Ti PRO 1000W - 32GB DDR4 3600MHz C16 - GeForce RTX 4090 - 990 Pro 4TB - MSI MAG 321UP QD-OLED 4K/165Hz - 65" OLED LG B4 - Watch Ultra LTE - S24 Ultra 1TB - Tab S10+ 512/12GB - Buds 3 Pro - 22TB
De berichtgeving omtrent die smeltende connectors vind ik toch maar verontrustend. Losstaande de voorraad issues was ik aan het overwegen om naar een 5090 te upgraden. Misschien toch maar een jaartje of twee verder doen dan met mijn huidige setup

Ehm het is onderhand wel een stoffig (thee)doekje gewordenLord_Dain schreef op zaterdag 15 februari 2025 @ 22:14:
[...]
Waarom ligt er een stofdoekje in je case achter je PSU?

Ik heb hier de sata SSD's in weggemoffeld, zodat het niet kan rammelen met het heen en weer verplaatsen van de kast. Dit is maar een testsysteem.
@Van der Berg
Thanks. Ga ik zeker doen
Klinkt precies wat ik had met mijn MSI Ventus 5080 en zijn middelste ventilator, bleek dus tegen het rubber aan begin van de ventilator stroomkabel aan te tikken, heb dat met een platte kant van iets ingedrukt daar en sindsdien is het weg.jbergers schreef op zaterdag 15 februari 2025 @ 14:45:
[...]
Als ik de middelste fan stop dan is het geluid ook weg.
Zou wel heel toevallig zijn als het met de PNY ook zo zou zijn.
[ Voor 3% gewijzigd door -MB- op 16-02-2025 20:28 ]
Dat had ik met de 1080Ti ook met een 2560x1440 165Hz scherm en een 1920x1200 60Hz scherm.jbbrans schreef op zaterdag 15 februari 2025 @ 19:01:
[...]
In het verleden, hadden de nVidia kaarten altijd een hoger verbruik met multi monitor opstellingen. De mem clock wordt dan hoger gezet tijdens idle. Ik weet niet of dat met de 50x0 kaarten ook zo is, met mijn 4090 in ieder geval wel.
Zoek naar het programma nvidia inspector (is een al wat ouder hulp programma) en dan met de rechter muistoets “multi-display power saver” kiezen.
Maar als G-sync actief was ging de kloksnelheid weer prima naar 139Mhz idle.
Het enige probleem dat die tool heeft (de multi monitor energy saver) is als je de 2D kloks forceert voor langere perioden is dat je monitor gaat flickeren als de kloksnelheden schakelen tussen 2D en 3D.
Dus dan moet je Windows gaan herstarten om dat weer op te lossen.
Met de Asus ROG Astral RTX 5090 OC in de PC maakt het niet uit of G-sync aan of uit staat, hij klokt netjes naar beneden.
De kloksnelheid hangt dan een beetje rond de 435Mhz met de memory op 405Mhz.
Ik zie met de Wireview Pro Reverse waardes van minimaal 19W maar idle zie je eerder zo'n 26-28W.
Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8
Dan hebben ze dat eindelijk, na zoveel jaar, opgelost. Had dat niet meer verwacht.CriticalHit_NL schreef op maandag 17 februari 2025 @ 09:34:
[...]
Dat had ik met de 1080Ti ook met een 2560x1440 165Hz scherm en een 1920x1200 60Hz scherm.
Maar als G-sync actief was ging de kloksnelheid weer prima naar 139Mhz idle.
Het enige probleem dat die tool heeft (de multi monitor energy saver) is als je de 2D kloks forceert voor langere perioden is dat je monitor gaat flickeren als de kloksnelheden schakelen tussen 2D en 3D.
Dus dan moet je Windows gaan herstarten om dat weer op te lossen.
Met de Asus ROG Astral RTX 5090 OC in de PC maakt het niet uit of G-sync aan of uit staat, hij klokt netjes naar beneden.
De kloksnelheid hangt dan een beetje rond de 435Mhz met de memory op 405Mhz.
Ik zie met de Wireview Pro Reverse waardes van minimaal 19W maar idle zie je eerder zo'n 26-28W.
Ik zou het nog niet per direct zeggen, het ligt volgens mij een beetje aan hoe groot je resoluties zijn, hoeveel monitoren je gebruikt en wat de verversingssnelheid is per monitor dat de kloksnelheden dat wel aankunnen in idle. Bij mij is de situatie niet zo extreem dus dan valt het gelukkig mee.jbbrans schreef op maandag 17 februari 2025 @ 10:18:
[...]
Dan hebben ze dat eindelijk, na zoveel jaar, opgelost. Had dat niet meer verwacht.
Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8
Zijn hier ook mensen met een slechte ervaring met betrekking tot een RTX 5090 OC?
Ik wil graag zo een kaart maar lees zoveel horrorverhalen en review dingen dat ik niet eens meer durf te denken aan het kopen van zo een kaart.
Ik wil graag zo een kaart maar lees zoveel horrorverhalen en review dingen dat ik niet eens meer durf te denken aan het kopen van zo een kaart.
Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram
Ik ga ernaar kijken maar durf er niet teveel aan te zitten ivm een RMA-MB- schreef op zondag 16 februari 2025 @ 20:27:
[...]
Klinkt precies wat ik had met mijn MSI Ventus 5080 en zijn middelste ventilator, bleek dus tegen het rubber aan begin van de ventilator stroomkabel aan te tikken, heb dat met een platte kant van iets ingedrukt daar en sindsdien is het weg.
Zou wel heel toevallig zijn als het met de PNY ook zo zou zijn.
Wel een berichtje naar hun tech afdeling gestuurd en meteen antwoord. Top.
Maar dan gaan ze hem vervangen en ben ik wel even kwijt.
Gezien het formaat van de 5080-kaarten tegenwoordig, raden jullie het gebruik van een anti-sag bracket aan? De kaart die ik heb besteld weegt 1,87 kilo, wat ik behoorlijk zwaar vind. Iemand hier ervaring mee?
Waarschijnlijk zit er al een ant-sag bracket bij..... en ja die zou ik gebruiken.Yellax schreef op maandag 17 februari 2025 @ 13:22:
Gezien het formaat van de 5080-kaarten tegenwoordig, raden jullie het gebruik van een anti-sag bracket aan? De kaart die ik heb besteld weegt 1,87 kilo, wat ik behoorlijk zwaar vind. Iemand hier ervaring mee?
[ Voor 3% gewijzigd door Zatara op 17-02-2025 13:33 ]
Heb die zelfs onder m'n 4080 zitten. Heb deze bij Amazon ooit eens gekocht:Yellax schreef op maandag 17 februari 2025 @ 13:22:
Gezien het formaat van de 5080-kaarten tegenwoordig, raden jullie het gebruik van een anti-sag bracket aan? De kaart die ik heb besteld weegt 1,87 kilo, wat ik behoorlijk zwaar vind. Iemand hier ervaring mee?
https://www.amazon.nl/-/e...yo2ov_dt_b_fed_asin_title
‘25 Tesla MY Juniper LR RWD - Stealth Grey - 20" Helix || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED
Net mijn 5090FE aangesloten en 15min. furmark gedraaid. Wilde de stroom meten per kabel, alleen de 12vhpwr kabel die bij mijn corsair hx1200i kwam heeft alle kabels aan elkaar zitten. Ik kon dus niet per kabel de stroom meten en het is dus ook niet mogelijk om per kabel aan te voelen of de ene heter is dan de andere.
Dankzij een fan hub in mijn pc (corsair icue link) heb ik ook niet genoeg PCIe 8-pin kabels om de meegeleverde adapter van nvidia te gebruiken.
Richting de 15 minuten met furmark voelde de kabels aan de GPU kant best wel heet aan. Het deed niet per se pijn om vast te pakken, maar goed het was best wel heet. Valt dit ongeveer binnen de verwachtingen?
Het helpt ook niet denk ik dat de 5090FE in een vertical mount zit en de hete lucht dus ook in de richting van de 12vhpwr kabels wordt geblazen.
Ik ga denk ik een nieuwe 12vhpwr van corsair halen die individually sleeved zijn. Dan kan ik ook goed per kabel meten of de stroomverdeling een beetje goed is
Dankzij een fan hub in mijn pc (corsair icue link) heb ik ook niet genoeg PCIe 8-pin kabels om de meegeleverde adapter van nvidia te gebruiken.
Richting de 15 minuten met furmark voelde de kabels aan de GPU kant best wel heet aan. Het deed niet per se pijn om vast te pakken, maar goed het was best wel heet. Valt dit ongeveer binnen de verwachtingen?
Het helpt ook niet denk ik dat de 5090FE in een vertical mount zit en de hete lucht dus ook in de richting van de 12vhpwr kabels wordt geblazen.
Ik ga denk ik een nieuwe 12vhpwr van corsair halen die individually sleeved zijn. Dan kan ik ook goed per kabel meten of de stroomverdeling een beetje goed is
Je kan het zo zien, kan qua RMA niet veel kwaad te kijken of er iets zit wat ie raakt. Je hoeft m niet open te schroeven ofzo.jbergers schreef op maandag 17 februari 2025 @ 13:09:
[...]
Ik ga ernaar kijken maar durf er niet teveel aan te zitten ivm een RMA
Wel een berichtje naar hun tech afdeling gestuurd en meteen antwoord. Top.
Maar dan gaan ze hem vervangen en ben ik wel even kwijt.
Ik hoor op zich niets gek. Het klinkt eerder als sterke turbulentie of een motor dat veel geluid maakt.jbergers schreef op zaterdag 15 februari 2025 @ 14:11:
Helaas een probleem met mn PNY 5080 OC
1 van de fans maakt een licht geluid maar wel irritant, de middelste fan is de veroorzaker.
Zie niet dat het wat raakt en met de hand hoor je ook niks.
Is het nog oplosbaar of wordt dit een RMA?![]()
Zie filmpje[YouTube: 15 februari 2025]
Zonder een binaural opname is het alleen lastig te beoordelen wat het nu precies is.
Zijn de bladen van de rotor helemaal vrij aan de onderkant? Daar mag niets binnen (minimaal) 3mm zitten.
Als het te heet is om vast te houden dan zit de temperatuur rond de 60°C.Sonic99h schreef op maandag 17 februari 2025 @ 15:21:
Net mijn 5090FE aangesloten en 15min. furmark gedraaid. Wilde de stroom meten per kabel, alleen de 12vhpwr kabel die bij mijn corsair hx1200i kwam heeft alle kabels aan elkaar zitten. Ik kon dus niet per kabel de stroom meten en het is dus ook niet mogelijk om per kabel aan te voelen of de ene heter is dan de andere.
Dankzij een fan hub in mijn pc (corsair icue link) heb ik ook niet genoeg PCIe 8-pin kabels om de meegeleverde adapter van nvidia te gebruiken.
Richting de 15 minuten met furmark voelde de kabels aan de GPU kant best wel heet aan. Het deed niet per se pijn om vast te pakken, maar goed het was best wel heet. Valt dit ongeveer binnen de verwachtingen?
Het helpt ook niet denk ik dat de 5090FE in een vertical mount zit en de hete lucht dus ook in de richting van de 12vhpwr kabels wordt geblazen.
Ik ga denk ik een nieuwe 12vhpwr van corsair halen die individually sleeved zijn. Dan kan ik ook goed per kabel meten of de stroomverdeling een beetje goed is
De kabel in de buurt van de connector kan wel zo heet worden in bedrijf. Het is iets om hoe dan ook in de gaten te blijven houden, ongeacht of het nu goed zit of niet.
Als je het niet erg vind om de HX1200i kabel minder 'mooi' te maken, dan is er voor een stroommeting ook de mogelijkheid de individuele draden van elkaar los te trekken/te splitsen (liever niet pal achter de connector). Aan de kant wat niet in het zicht is bijvoorbeeld.
Is het trouwens nog steeds zo'n mega stugge bandkabel zoals Corsair jaren geleden gebruikte?
En wat betreft de vertical mount, bedoel je daarmee een GPU op z'n kant?
In de quickstart quide van de 5090FE staat namelijk een waarschuwing om de GPU niet verticaal op te hangen met de I/O zijde aan de onderkant.
Een beetje speling tussen de contacten en de behuizing is normaal.Help!!!! schreef op vrijdag 14 februari 2025 @ 19:41:
Dit was mij ook al vele jaren geleden opgevallen echter altijd erop vertrouwd dat 'de engineers' weten wat ze doen.
Terecht of onterecht?
[YouTube: I discovered something concerning and I need the Experts to chime in... More 12VHPWR discovery!]
Het is in het geval van Jay2C wel erg veel te noemen, wat misschien betekend dat de weerhaakjes niet meer goed zijn of dat de behuizing beschadigd is. M.a.w. mogelijk zit er een contact bij hem los.
Normaal gesproken komen de contacten op gelijke hoogte te zitten, zodra het over de pinnen geschoven wordt. Het gedeelte wat werkelijk contact maakt zit ook dieper in de pen.
Ik ben wel benieuwd of dit een factor is dat meespeelt, het is natuurlijk beter wanneer er zo min mogelijk speling is. Het is in ieder geval niets nieuws. Bij de Molex mini-fit connectoren zit het ook niet allemaal mooi op gelijke hoogte en is er ook redelijk speling tussen de contacten en de behuizing.
[ Voor 18% gewijzigd door CMT op 17-02-2025 17:43 ]
Ik zag inderdaad de waarschuwing over de IIO zijde aan de onderkant, maar ik weet niet of ze hierbij specifiek een vertical mount bedoelen (gpu op zn kant). Met een vertical mount wijst je IO in principe nogsteeds naar achteren alleen in een andere orientatie.
Er zijn verder wel vreemde cases waar je je gpu letterlijk staande kan monteren. Misschien bedoelen ze dat de IO plaat niet letterlijk naar de vloer mag wijzen.
Kan me verder ook herinneren in een video over de FE koeler dat meerdere orientaties zijn getest, waaronder vertical mount. Ook had GN volgensmij een video waar een vertical mount werd getest en dat het maar een paar graden scheelde tov een normale mount.
Maar goed zoals je zei, ik hou het lekker in de gaten
Er zijn verder wel vreemde cases waar je je gpu letterlijk staande kan monteren. Misschien bedoelen ze dat de IO plaat niet letterlijk naar de vloer mag wijzen.
Kan me verder ook herinneren in een video over de FE koeler dat meerdere orientaties zijn getest, waaronder vertical mount. Ook had GN volgensmij een video waar een vertical mount werd getest en dat het maar een paar graden scheelde tov een normale mount.
Maar goed zoals je zei, ik hou het lekker in de gaten
Avondje m’n 5090 ingedraaid. Paar races LMU, iRacing en MSFS 2024.
Temp van GPU kwam niet boven de 69 graden uit. Verbruik met uncapped FPS in LMU zat op 530W. Maar dan had ik ook een FPS tegen de 200. Framelimit op 161 en toen bleef verbruik rond de 460W bungelen.
Ga nog kijken naar een undervolt. Heb dit nooit eerder gedaan. Iemand een kant en klare uitleg welke stappen ik moet nemen in Afterburner en met welke waardes?
Temp van GPU kwam niet boven de 69 graden uit. Verbruik met uncapped FPS in LMU zat op 530W. Maar dan had ik ook een FPS tegen de 200. Framelimit op 161 en toen bleef verbruik rond de 460W bungelen.
Ga nog kijken naar een undervolt. Heb dit nooit eerder gedaan. Iemand een kant en klare uitleg welke stappen ik moet nemen in Afterburner en met welke waardes?
‘25 Tesla MY Juniper LR RWD - Stealth Grey - 20" Helix || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED
Kwam er gisteren achter met de benchmark van Metro 2033 en Metro Last Light dat de Blackwell videokaarten geen Nvidia PhysX acceleratie ondersteunen voor 32-bits applicaties en dus oude spellen die hiervan gebruik maken.
https://nvidia.custhelp.com/app/answers/detail/a_id/5615
Dat betekende in het geval van Metro Last Light dat zodra de explosie in de benchmark afgaat dat 300+ fps meteen wegzakt naar 8-15fps.
Dat is op zich best wel jammer zeker voor spellen zoals Mafia 2 die er wat zwaarder gebruik van maken.
Dan toch maar je oude videokaart naast de 5090 proppen
Edit, duidelijkere lijst met spellen die hierdoor worden beïnvloed:
https://www.resetera.com/...-borderlands-etc.1111698/
https://nvidia.custhelp.com/app/answers/detail/a_id/5615
Dat betekende in het geval van Metro Last Light dat zodra de explosie in de benchmark afgaat dat 300+ fps meteen wegzakt naar 8-15fps.
Dat is op zich best wel jammer zeker voor spellen zoals Mafia 2 die er wat zwaarder gebruik van maken.
Dan toch maar je oude videokaart naast de 5090 proppen
Edit, duidelijkere lijst met spellen die hierdoor worden beïnvloed:
https://www.resetera.com/...-borderlands-etc.1111698/
[ Voor 16% gewijzigd door CriticalHit_NL op 18-02-2025 11:40 ]
Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8
Hmm dit is nieuw voor mij en hiermee loopt mijn zoektocht naar een 5090 dan ook ten eindeCriticalHit_NL schreef op dinsdag 18 februari 2025 @ 08:06:
Kwam er gisteren achter met de benchmark van Metro 2033 en Metro Last Light dat de Blackwell videokaarten geen Nvidia PhysX acceleratie ondersteunen voor 32-bits applicaties en dus oude spellen die hiervan gebruik maken.
https://nvidia.custhelp.com/app/answers/detail/a_id/5615
Dat betekende in het geval van Metro Last Light dat zodra de explosie in de benchmark afgaat dat 300+ fps meteen wegzakt naar 8-15fps.
Dat is op zich best wel jammer zeker voor spellen zoals Mafia 2 die er wat zwaarder gebruik van maken.
Dan toch maar je oude videokaart naast de 5090 proppen
Edit, duidelijkere lijst met spellen die hierdoor worden beïnvloed:
https://www.resetera.com/...-borderlands-etc.1111698/
Oh, goed dat ik het weetAlwinVdd schreef op dinsdag 18 februari 2025 @ 16:24:
[...]
Hmm dit is nieuw voor mij en hiermee loopt mijn zoektocht naar een 5090 dan ook ten eindeIk heb een massa oude games in mijn backlog staan.
Heb nu deze undervolt ingesteld op m'n 5090FE.
Is dat goed?
Kan dit beter?
Tips zijn welkom. Voor het eerst in m'n leven dat ik een undervolt doe.
:strip_exif()/f/image/dZl6qQ7bwRF7NBOoysQrLgXU.png?f=user_large)
:strip_exif()/f/image/1tfdjEbYnEkP6YLgHbWhIJc5.png?f=user_large)
Getest in Le Mans Ultimate
Is dat goed?
Tips zijn welkom. Voor het eerst in m'n leven dat ik een undervolt doe.
:strip_exif()/f/image/dZl6qQ7bwRF7NBOoysQrLgXU.png?f=user_large)
:strip_exif()/f/image/1tfdjEbYnEkP6YLgHbWhIJc5.png?f=user_large)
Getest in Le Mans Ultimate
:strip_exif()/f/image/pHJq5AYoi3fsjr2qxReA73dh.png?f=user_large)
‘25 Tesla MY Juniper LR RWD - Stealth Grey - 20" Helix || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED
Memory clock kan volgens mij eenvoudig naar +1000 (heb zelf ook +2000 geprobeerd zonder crash).Rivanov schreef op dinsdag 18 februari 2025 @ 18:32:
Heb nu deze undervolt ingesteld op m'n 5090FE.
Is dat goed?Kan dit beter?
Tips zijn welkom. Voor het eerst in m'n leven dat ik een undervolt doe.
[Afbeelding]
[Afbeelding]
Getest in Le Mans Ultimate
[Afbeelding]
Power limit eens proberen op 90% te zetten en dan kijken of hij stabiel blijft en wat het verbruik doet.
Power Limit i.c.m. de huidige curve?Lord_Dain schreef op dinsdag 18 februari 2025 @ 18:50:
[...]
Memory clock kan volgens mij eenvoudig naar +1000 (heb zelf ook +2000 geprobeerd zonder crash).
Power limit eens proberen op 90% te zetten en dan kijken of hij stabiel blijft en wat het verbruik doet.
‘25 Tesla MY Juniper LR RWD - Stealth Grey - 20" Helix || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED
Wat jij wil. Je kan ook de oorspronkelijke curve pakken en dan een PL + OC er opzetten.
Als hij instabiel wordt weet je dat je te veel probeert er uit te halen qua undervolt
Je zou dus ook kunnen starten met default settings, +500 op gpu clock, +1000 op memory en 80% PL.
[ Voor 12% gewijzigd door Lord_Dain op 18-02-2025 18:57 ]
Ga ik proberen! Zoals ik zei, ben hier volledig "nieuw" in. Dus alle tips en aanbevelingen zijn welkom.Lord_Dain schreef op dinsdag 18 februari 2025 @ 18:56:
[...]
Wat jij wil. Je kan ook de oorspronkelijke curve pakken en dan een PL + OC er opzetten.
Als hij instabiel wordt weet je dat je te veel probeert er uit te halen qua undervolt
Je zou dus ook kunnen starten met default settings, +500 op gpu clock, +1000 op memory en 80% PL.
‘25 Tesla MY Juniper LR RWD - Stealth Grey - 20" Helix || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED
ik heb een rtx 5090 FE i.c.m. een i914900KS.mmxmmx schreef op maandag 17 februari 2025 @ 10:39:
Zijn hier ook mensen met een slechte ervaring met betrekking tot een RTX 5090 OC?
Ik wil graag zo een kaart maar lees zoveel horrorverhalen en review dingen dat ik niet eens meer durf te denken aan het kopen van zo een kaart.
qua warmte is er nauwelijks iets te melden tov de 4090 FE die ik had. alles draait keurig op 38 a 40 graden en met gamen (vooral UE5 of bijv. Cyberpunk) gaat het richting de 65 a 75 graden.
wel vind ik de videokaart wat luidruchtiger dan de 4090 FE. de koeling maakt simpelweg wat meer geluid.
al met al erg tevreden.
horror verhalen over specifiek een OC versie ken ik niet. Maar dan probeer je toch een niet OC te kopen of een FE?
Of je kiest ervoor om voorlopig helemaal niet mee te doen met de debiele prijzen die ervoor worden gevraagd.
[ Voor 13% gewijzigd door hully op 18-02-2025 22:10 ]
fwiw: NVIDIA's 32-Bit PhysX Waves Goodbye with GeForce RTX 50 Series Ending 32-Bit CUDA Software Support
.....
Here is a comprehensive list of games that use 32-bit PhysX, which will be runnin slower if the latest GeForce RTX 50 series is used, nicely compiled by a Resetera forum user:
Monster Madness: Battle for Suburbia, Tom Clancy's Ghost Recon Advanced Warfighter 2, Crazy Machines 2, Unreal Tournament 3, Warmonger: Operation Downtown Destruction, Hot Dance Party, QQ Dance, Hot Dance Party II, Sacred 2: Fallen Angel, Cryostasis: Sleep of Reason, Mirror's Edge, Armageddon Riders, Darkest of Days, Batman: Arkham Asylum, Sacred 2: Ice & Blood, Shattered Horizon, Star Trek DAC, Metro 2033, Dark Void, Blur, Mafia II, Hydrophobia: Prophecy, Jianxia 3, Alice: Madness Returns, MStar, Batman: Arkham City, 7554, Depth Hunter, Deep Black, Gas Guzzlers: Combat Carnage, The Secret World, Continent of the Ninth (C9), Borderlands 2, Passion Leads Army, QQ Dance 2, Star Trek, Mars: War Logs, Metro: Last Light, Rise of the Triad, The Bureau: XCOM Declassified, Batman: Arkham Origins, and Assassin's Creed IV: Black Flag.
.....
Here is a comprehensive list of games that use 32-bit PhysX, which will be runnin slower if the latest GeForce RTX 50 series is used, nicely compiled by a Resetera forum user:
Monster Madness: Battle for Suburbia, Tom Clancy's Ghost Recon Advanced Warfighter 2, Crazy Machines 2, Unreal Tournament 3, Warmonger: Operation Downtown Destruction, Hot Dance Party, QQ Dance, Hot Dance Party II, Sacred 2: Fallen Angel, Cryostasis: Sleep of Reason, Mirror's Edge, Armageddon Riders, Darkest of Days, Batman: Arkham Asylum, Sacred 2: Ice & Blood, Shattered Horizon, Star Trek DAC, Metro 2033, Dark Void, Blur, Mafia II, Hydrophobia: Prophecy, Jianxia 3, Alice: Madness Returns, MStar, Batman: Arkham City, 7554, Depth Hunter, Deep Black, Gas Guzzlers: Combat Carnage, The Secret World, Continent of the Ninth (C9), Borderlands 2, Passion Leads Army, QQ Dance 2, Star Trek, Mars: War Logs, Metro: Last Light, Rise of the Triad, The Bureau: XCOM Declassified, Batman: Arkham Origins, and Assassin's Creed IV: Black Flag.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Same here. Ik kom van een MSI 4090 trio en vind de tempraturen en geluid enorm mee vallen. Een aantal berichten deden me twijfelen over de FE. Maar het lijkt allemaal mee te vallen.hully schreef op dinsdag 18 februari 2025 @ 22:09:
[...]
ik heb een rtx 5090 FE i.c.m. een i914900KS.
qua warmte is er nauwelijks iets te melden tov de 4090 FE die ik had. alles draait keurig op 38 a 40 graden en met gamen (vooral UE5 of bijv. Cyberpunk) gaat het richting de 65 a 75 graden.
wel vind ik de videokaart wat luidruchtiger dan de 4090 FE. de koeling maakt simpelweg wat meer geluid.
al met al erg tevreden.
horror verhalen over specifiek een OC versie ken ik niet. Maar dan probeer je toch een niet OC te kopen of een FE?
Of je kiest ervoor om voorlopig helemaal niet mee te doen met de debiele prijzen die ervoor worden gevraagd.
Noes, een aantal spellen daarvan staan op mijn backlogHelp!!!! schreef op woensdag 19 februari 2025 @ 10:44:
fwiw: NVIDIA's 32-Bit PhysX Waves Goodbye with GeForce RTX 50 Series Ending 32-Bit CUDA Software Support
.....
Here is a comprehensive list of games that use 32-bit PhysX, which will be runnin slower if the latest GeForce RTX 50 series is used, nicely compiled by a Resetera forum user:
Monster Madness: Battle for Suburbia, Tom Clancy's Ghost Recon Advanced Warfighter 2, Crazy Machines 2, Unreal Tournament 3, Warmonger: Operation Downtown Destruction, Hot Dance Party, QQ Dance, Hot Dance Party II, Sacred 2: Fallen Angel, Cryostasis: Sleep of Reason, Mirror's Edge, Armageddon Riders, Darkest of Days, Batman: Arkham Asylum, Sacred 2: Ice & Blood, Shattered Horizon, Star Trek DAC, Metro 2033, Dark Void, Blur, Mafia II, Hydrophobia: Prophecy, Jianxia 3, Alice: Madness Returns, MStar, Batman: Arkham City, 7554, Depth Hunter, Deep Black, Gas Guzzlers: Combat Carnage, The Secret World, Continent of the Ninth (C9), Borderlands 2, Passion Leads Army, QQ Dance 2, Star Trek, Mars: War Logs, Metro: Last Light, Rise of the Triad, The Bureau: XCOM Declassified, Batman: Arkham Origins, and Assassin's Creed IV: Black Flag.

Ik neem verder ook aan dat 'slower', gelijk staat aan: K-U-T
Idem hier. 9800x3D met 5090FE. Heb een undervolt ingesteld en temperatuur en Wattage blijven heerlijk laag.hully schreef op dinsdag 18 februari 2025 @ 22:09:
[...]
ik heb een rtx 5090 FE i.c.m. een i914900KS.
qua warmte is er nauwelijks iets te melden tov de 4090 FE die ik had. alles draait keurig op 38 a 40 graden en met gamen (vooral UE5 of bijv. Cyberpunk) gaat het richting de 65 a 75 graden.
wel vind ik de videokaart wat luidruchtiger dan de 4090 FE. de koeling maakt simpelweg wat meer geluid.
al met al erg tevreden.
horror verhalen over specifiek een OC versie ken ik niet. Maar dan probeer je toch een niet OC te kopen of een FE?
Of je kiest ervoor om voorlopig helemaal niet mee te doen met de debiele prijzen die ervoor worden gevraagd.
‘25 Tesla MY Juniper LR RWD - Stealth Grey - 20" Helix || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED
En hoe zit het met de coilwhine? Valt mee / tegen?Rivanov schreef op woensdag 19 februari 2025 @ 13:33:
[...]
Idem hier. 9800x3D met 5090FE. Heb een undervolt ingesteld en temperatuur en Wattage blijven heerlijk laag.
Nice, wat haal je nu qua temps onder belasting?Rivanov schreef op woensdag 19 februari 2025 @ 13:33:
[...]
Idem hier. 9800x3D met 5090FE. Heb een undervolt ingesteld en temperatuur en Wattage blijven heerlijk laag.
Let op:
Let op. Dit topic is om inhoudelijk te discussiëren over de 50XX serie, niet om over prijzen, beschikbaarheid en "waar-koop-ik" vragen te stellen. Daar hebben we [NVIDIA GeForce RTX 50XX] Levertijden & Prijzen voor. Reageer er dus ook niet op maar maak een report aan, dan wordt het verplaatst naar het het andere topic.
Let op. Dit topic is om inhoudelijk te discussiëren over de 50XX serie, niet om over prijzen, beschikbaarheid en "waar-koop-ik" vragen te stellen. Daar hebben we [NVIDIA GeForce RTX 50XX] Levertijden & Prijzen voor. Reageer er dus ook niet op maar maak een report aan, dan wordt het verplaatst naar het het andere topic.