i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Inderdaad, vandaar mijn reactie ook dat ik liever AMD only merken koop als ik AMD koop. Ik hoef geen halve oplossing van een merk dat zichzelf er niet toe kan bewegen om een koeler te maken voor AMD.sjekneck schreef op woensdag 28 februari 2024 @ 23:04:
[...]
Je ziet wel dat in de afgelopen jaren dat de meeste koeloplossingen van open board partners ontwikkeld zijn met Nvidia als uitgangspunt. Krijgen ze het zonder al teveel herrie ook op AMD, dan doen/deden ze dat ook. Al heb je dan soms wel negatieve uitschieters die niet goed contact maken zoals bij MSI en ook bij Asus etc. Wat dat betreft kun je nu beter voor dedicated partners gaan bij AMD.
Hij heeft gewoon een doos vol met connectoren die blijkbaar afgelopen maand zijn vervangen.

Toestemming nodig voor bekijken van YouTube
Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.
Bekijk op YouTubeNever argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik vind dit echt zo'n nare "bug", beter komen ze met een compleet gereviseerde kabel bij de 50-serie, ik heb dan ook wel 100+ euro over voor een nieuwe voeding om dit soort ongein te voorkomen.DaniëlWW2 schreef op zaterdag 13 april 2024 @ 08:58:
Ondertussen lijken de problemen met die "geweldige" connector, zeker nog niet voorbij.
Hij heeft gewoon een doos vol met connectoren die blijkbaar afgelopen maand zijn vervangen.![]()
[YouTube: 4090's Still melting. What I think about CableMod]
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
Maar het lost een van de grote problemen niet op met deze connector.
Het schijnt namelijk zo te zijn dat de maten en toleranties van de behuizing en vergrendeling niet opgenomen is in de PCI SIG specificatie. Alleen van de headers / pinout.
Ik snap werkelijk niet hoe dit mogelijk is met een connector die tot het uiterste gepushed wordt.
Persoonlijk schrok ik er wel even van toen ik dat las bij Igor:
https://www.igorslab.de/e...ind-or-a-one-off-slip-up/
Het zal dus nog wel even het wilde westen blijven hiermee.
Dat zou verklaren waarom de ene connector wel werkt en de volgende smelt...CMT schreef op zaterdag 13 april 2024 @ 11:43:
De 5000 serie krijgt heel waarschijnlijk een grotere versie met 16 i.p.v. 12 power-pinnen
Maar het lost een van de grote problemen niet op met deze connector.
Het schijnt namelijk zo te zijn dat de maten en toleranties van de behuizing en vergrendeling niet opgenomen is in de PCI SIG specificatie. Alleen van de headers / pinout.
Ik snap werkelijk niet hoe dit mogelijk is met een connector die tot het uiterste gepushed wordt.
Persoonlijk schrok ik er wel even van toen ik dat las bij Igor:
https://www.igorslab.de/e...ind-or-a-one-off-slip-up/
Het zal dus nog wel even het wilde westen blijven hiermee.
Die connector is moeilijker om goed te bevestigen en bevestigd te houden. Dat kan wat verklaren, maar was denk ik altijd al te makkelijk. Het klonk ook altijd als een mooi excuus om de gebruiker de schuld te geven dat hun dure RTX4090 nu stuk is. Toleranties van de connectoren zelf, lijkt heel wat meer van de willekeur te verklaren.
Maar het is ook mooi als we dadelijk een 16 pin krijgen. Leuk voor iedereen die een PSU of verloopkabel heeft gekocht met de 12 pin. Daar heb je niks meer aan. Die standaard afschaffen lijkt me op zijn zachts gezegd wenselijk. Maar doorgaan met een 16 pin met dezelfde twijfelachtige ontwerpkeuzes en toleranties, klinkt niet als een oplossing. Want dan kan je straks weer opnieuw beginnen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De 16-pin connector is wellicht een broodje-aap verhaal. Ik lees net bij Techpowerup dat HWbusters (degene die Cybernetics heeft opgericht) er niet van op de hoogte is en dat is iemand met veel connecties in de PSU industrie. We zullen het zien eind dit jaar ^^.
Hopen dat die 16 pin, gewoon twee van de oudere 8 pin connectoren zijn met een hogere, gegarandeerde rating per pin.CMT schreef op zaterdag 13 april 2024 @ 12:34:
@DaniëlWW2 Ja, dat was voor mij ook wel een eye-opener.
De 16-pin connector is wellicht een broodje-aap verhaal. Ik lees net bij Techpowerup dat HWbusters (degene die Cybernetics heeft opgericht) er niet van op de hoogte is en dat is iemand met veel connecties in de PSU industrie. We zullen het zien eind dit jaar ^^.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat heeft PCI-SIG echter nooit gedaan. Dat is hun verantwoordelijkheid ook niet, dat hoort in de ATX spec thuis. Zij stellen enkel waar de stekkers, pinnen en draden toe in staat moeten zijn en hebben daaromheen hun eigen veiligheidsmarges. Het is vervolgens aan de ATX spec en fabrikanten om dat veilig te houden.CMT schreef op zaterdag 13 april 2024 @ 11:43:
Het schijnt namelijk zo te zijn dat de maten en toleranties van de behuizing en vergrendeling niet opgenomen is in de PCI SIG specificatie. Alleen van de headers / pinout.
De maten van de behuizing zelf staan er gegarandeerd wel in, dit is voor de 8-pins uit een oudere versie van CEM (heb nog geen PDF van 5.1 gevonden
Neemt niet weg dat ze dit kreng nooit goed hadden mogen keuren, Nvidia heeft flink gelobbied bij de rest om dat voor elkaar te krijgen. De vergrendeling bovenop heeft geen harde haak die over de uitstulping op de header gaat, daarom hoor je geen duidelijke klik. Vervolgens is het geheel dusdanig kort dat je pakweg 0,55mm speling hebt over het geheel (de vergrendeling is actief over pakweg 0,45mm); en de sense pinnen zitten iets verder naar voren (0,75mm) en maken dus eerder contact. Allemaal dingen die hem niet consument-veilig maken vergeleken met de Mini-Fit, waar de vergrendeling gewoon beter is (harde haak + hoger, waardoor hij "harder klikt") en je tegen die tijd al meer contact met de pinnen hebt. Allemaal lullige cijfertjes, maar het maakt weldegelijk iets uit. En ik zeg het nog maar eens: de Mini-Fit kan zelfs met de meest conservatieve cijfers van Molex voor 3 actieve 18 AWG draden in een 8-pins stekker meer dan 270W hebben - en PCI-SIG hield het daarbij op 150W.
Een 16-pins betwijfel ik (tenzij ze daarmee de 12+4 van nu bedoelen
[ Voor 5% gewijzigd door Werelds op 14-04-2024 13:53 ]
Er is ook geen probleem.napata schreef op zondag 14 april 2024 @ 20:38:
Wat ik me afvraag is waarom je geen 3090s of 3090Tis ziet met dit probleem.
мы идем к победе
Weet je het zeker? Want voor mij is het een beetje een grijs gebied wie voor wat nu verantwoordelijk is met de connectoren. Ik dacht altijd dat de ATX specificatie alleen betrekking had op de PSU en het moederbord. En dat PCI-SIG op haar beurt betrekking heeft op de specificatie en (inter)connectie van de add-in card/componenten. Zeg maar de randzaken daarbij.Werelds schreef op zondag 14 april 2024 @ 13:51:toon volledige bericht
[...]
Dat heeft PCI-SIG echter nooit gedaan. Dat is hun verantwoordelijkheid ook niet, dat hoort in de ATX spec thuis. Zij stellen enkel waar de stekkers, pinnen en draden toe in staat moeten zijn en hebben daaromheen hun eigen veiligheidsmarges. Het is vervolgens aan de ATX spec en fabrikanten om dat veilig te houden.
De maten van de behuizing zelf staan er gegarandeerd wel in, dit is voor de 8-pins uit een oudere versie van CEM (heb nog geen PDF van 5.1 gevonden): receptacle (header) en connector. Maar de toleranties, vergrendelingen en dergelijke horen niet bij PCI-SIG thuis.
Neemt niet weg dat ze dit kreng nooit goed hadden mogen keuren, Nvidia heeft flink gelobbied bij de rest om dat voor elkaar te krijgen. De vergrendeling bovenop heeft geen harde haak die over de uitstulping op de header gaat, daarom hoor je geen duidelijke klik. Vervolgens is het geheel dusdanig kort dat je pakweg 0,55mm speling hebt over het geheel (de vergrendeling is actief over pakweg 0,45mm); en de sense pinnen zitten iets verder naar voren (0,75mm) en maken dus eerder contact. Allemaal dingen die hem niet consument-veilig maken vergeleken met de Mini-Fit, waar de vergrendeling gewoon beter is (harde haak + hoger, waardoor hij "harder klikt") en je tegen die tijd al meer contact met de pinnen hebt. Allemaal lullige cijfertjes, maar het maakt weldegelijk iets uit. En ik zeg het nog maar eens: de Mini-Fit kan zelfs met de meest conservatieve cijfers van Molex voor 3 actieve 18 AWG draden in een 8-pins stekker meer dan 270W hebben - en PCI-SIG hield het daarbij op 150W.
Een 16-pins betwijfel ik (tenzij ze daarmee de 12+4 van nu bedoelen), ik geloof niet dat Nvidia het aan durft nóg een keer een nieuwe stekker buiten de PCI-SIG en ATX specs om te introduceren.
Er zal ongetwijfeld wel overlap zijn tussen de twee, anders wordt het lastig om eenduidigheid te krijgen.
Het PCI-SIG (consortium van vele mega techbedrijven inclusief Intel) is wel véél groter dan ATX (Intel).
Is het dan niet aannemelijker dat deze dan ook meer verantwoordelijk is (of hoort te zijn)?
Die zat onder een hoek van 45 graden, waardoor er sowieso al een stuk minder stress op de kabel zit. En misschien was de header daar net iets anders waardoor hij beter vast klikt?napata schreef op zondag 14 april 2024 @ 20:38:
Wat ik me afvraag is waarom je geen 3090s of 3090Tis ziet met dit probleem.
Dat is er wel. Dat het geen duizenden gevallen betreft doet er niet toe, er zijn nu al meer gevallen met deze stekker dan je op 20 jaar PCIe ziet, laat staan 40 jaar van alle andere stekkers.Expanse schreef op zondag 14 april 2024 @ 21:03:
Er is ook geen probleem.
Dat is hoe dan ook zorgwekkend. Ik heb op 30 jaar PC's bouwen nog geen enkele gesmolten stekker gehad.
ATX wordt ook in samenwerking gemaakt; Intel publiceert hem wel, maar het is niet alsof zij in hun eentje alles beslissen. PCI-SIG heeft meer leden, maar het gros van die leden is enkel lid omdat ze toegang tot de specs nodig hebben. De actieve leden zijn een stuk beperkter, dat zie je ook in de namen op de change requests.CMT schreef op maandag 15 april 2024 @ 06:53:
Weet je het zeker? Want voor mij is het een beetje een grijs gebied wie voor wat nu verantwoordelijk is met de connectoren. Ik dacht altijd dat de ATX specificatie alleen betrekking had op de PSU en het moederbord. En dat PCI-SIG op haar beurt betrekking heeft op de specificatie en (inter)connectie van de add-in card/componenten. Zeg maar de randzaken daarbij.
Er zal ongetwijfeld wel overlap zijn tussen de twee, anders wordt het lastig om eenduidigheid te krijgen.
Het PCI-SIG (consortium van vele mega techbedrijven inclusief Intel) is wel véél groter dan ATX (Intel).
Is het dan niet aannemelijker dat deze dan ook meer verantwoordelijk is (of hoort te zijn)?
Een deel doen ze eigenlijk in beide specs: keying van receptacles/connectors, spanningen, enzovoort. PCI-SIG kan niet zomaar een andere spanning gaan vereisen (19V of 24V vereisen zou wel beter geweest zijn
Receptacles/connectors worden nooit vanaf de grond af ontworpen. Dat zijn altijd bestaande ontwerpen. Bijna alle connectors zijn Molex ontwerpen; ironisch genoeg is de stekker die wij doorgaans "Molex" noemen (die dikke witte 4-pins die je op IDE HDD's zag) juist van Amphenol
De reden dat de precieze afmetingen in ATX en niet CEM zitten is dat PCI-SIG juist bovenop die spec is gaan zitten. De spanningen die ze gebruiken komen allemaal uit de ATX spec. Ripple zit enkel in de ATX spec. Het is de ATX spec waar de PSU fabrikanten zich in eerste instantie aan moeten houden en het is ook in die spec (en z'n uitbreidingen; EPS en PCIe zijn uitbreidingen) waar ze het hebben over "X should use a Brand 12-34-56 or equivalent connector".
Wou hem net posten. Onze vrienden van Guru3D zijn weer eens laatDaniëlWW2 schreef op zaterdag 13 april 2024 @ 08:58:
Ondertussen lijken de problemen met die "geweldige" connector, zeker nog niet voorbij.
Hij heeft gewoon een doos vol met connectoren die blijkbaar afgelopen maand zijn vervangen.![]()
[YouTube: 4090's Still melting. What I think about CableMod]

Dat zijn serieuze aantallen. Lekker met je kaart van 2 ruggen. Krijgen die mensen wel een nieuwe kaart van Nvidia?On average, the shop addresses malfunctions in 200 RTX 4090 units each month due to this defect.
Dat is natuurlijk helemaal nietszeggende N=1 ervaring. Ik heb in minder dan 30 jaar PCs bouwen wel een gesmolten stekker gehad. En dat was geen 12-pins connector, het was de PSU kant van een rm550x PCIe kabel set die gesmolten was.Werelds schreef op maandag 15 april 2024 @ 10:59:
[...]
Dat is hoe dan ook zorgwekkend. Ik heb op 30 jaar PC's bouwen nog geen enkele gesmolten stekker gehad.
Daarom is het ook interessant om Nvidia's gedrag hier te bespreken toch? GPP was een behoorlijke fuckup, vooral omdat het openbaar werd, en blijkbaar doen ze nu in stilte alsnog waar iedere reviewer ze voor afmaakte.Koldur schreef op donderdag 29 februari 2024 @ 09:14:
[...]
Volgens mij heb je per ongeluk het verkeerde topic te pakken, dit is het Nvidia topic.
Competitie op basis van performance in plaats van exclusiviteit is voor iedere gamer beter.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Het heeft niets met Nvidia nieuws te maken, maar blijkbaar mag het besproken worden, het is blijven staan.Jeroenneman schreef op donderdag 18 april 2024 @ 07:55:
[...]
Daarom is het ook interessant om Nvidia's gedrag hier te bespreken toch? GPP was een behoorlijke fuckup, vooral omdat het openbaar werd, en blijkbaar doen ze nu in stilte alsnog waar iedere reviewer ze voor afmaakte.
Competitie op basis van performance in plaats van exclusiviteit is voor iedere gamer beter.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Wellicht, ik ben echter ook wel rond m'n 7e/8e begonnen (eerst uiteraard met pa's supervisieSissors schreef op donderdag 18 april 2024 @ 07:47:
[...]
Dat is natuurlijk helemaal nietszeggende N=1 ervaring. Ik heb in minder dan 30 jaar PCs bouwen wel een gesmolten stekker gehad. En dat was geen 12-pins connector, het was de PSU kant van een rm550x PCIe kabel set die gesmolten was.
Zelfs nu heb ik in m'n kast een EPS stekker die behoorlijk strak staat, en onder een hoek, daar maak ik me 0,0 zorgen over. Ik heb ook tal van pre-builts gezien waarbij er stekkers niet helemaal vast zaten, zonder dat problemen gaf. Het ergste geval dat ik heb gezien was een 24-pins die zo los zat dat ik hem volgens mij wel los had kunnen rammelen door de kast een paar keer te verschuiven. Nu loopt daar niet zo veel stroom doorheen, maar het gaat bij los contact ook om de vonken, niet enkel de continue stroom. Zelfs met Fermi zag je deze verhalen niet; je hebt het dan over een GPU die 260W over 6+8 trok (~40W binnen spec dus; buiten games kreeg je hem over de maximale 300W heen) in een tijd dat niets boven de 200W kwam met uitzondering van dual-GPU kaarten. Nu heb je het over 450-500W door een stekker die volgens de spec 600 zou moeten kunnen hebben, die zou echt niet mogen smelten...tenzij er iets fundamenteel mis is met het ding. Dat het 99% van de tijd goed gaat doet er niet toe, die 1% is al 10 keer meer dan bij andere stekkers.
Mijn punt is dat je kunt gaan zoeken naar verhalen van gesmolten stekkers en er minder tegen komt van eender welk soort stekker dan van gesmolten 4090 stekkers. In beide gevallen zet uiteraard niet iedereen dat online, maar het is zoiets dat maar hoogst zelden voor komt, als je zo'n post of thread vindt dan zijn dat hele aparte gevallen. En als die gast in die video de waarheid spreekt, dan is 200 per maand echt wel bizar veel.
Als Jon Gerow (Jonnyguru) het ding nooit aan de PSU kant wil zien, zegt het wel genoeg wat mij betreft. Maar die kans is wel aanwezig, als ze besluiten die sense pins ooit daadwerkelijk te gaan gebruiken
мы идем к победе
Svp argumenten gebruiken ipv slechts meningen plaatsen.Expanse schreef op donderdag 18 april 2024 @ 11:28:
Het valt allemaal wel mee.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Volgens mij is er er op Tweakers nog niet 1 iemand met het smelt probleem. Ik ben er op Guru3d ik geen 1 tegengekomen. Je zou haast denken dat het niet bestaat.Ludewig schreef op donderdag 18 april 2024 @ 11:29:
[...]
Svp argumenten gebruiken ipv slechts meningen plaatsen.
мы идем к победе
Jawel, in ieder geval 1 iemand maar die heeft zijn posts daarover weggehaald.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Waarom zou diegene zijn post daar over weg halen. Kli kt wel heel ongeloofwaardig.Help!!!! schreef op donderdag 18 april 2024 @ 14:18:
^
Jawel, in ieder geval 1 iemand maar die heeft zijn posts daarover weggehaald.
мы идем к победе
En niet heel toevallig zijn het altijd youtube helden die er last van hebben.Werelds schreef op maandag 15 april 2024 @ 10:59:
[...]
Dat is er wel. Dat het geen duizenden gevallen betreft doet er niet toe, er zijn nu al meer gevallen met deze stekker dan je op 20 jaar PCIe ziet, laat staan 40 jaar van alle andere stekkers.
Dat is hoe dan ook zorgwekkend. Ik heb op 30 jaar PC's bouwen nog geen enkele gesmolten stekker gehad.
Denk dat je daar prima zelf een verklaring voor kan bedenken.Expanse schreef op donderdag 18 april 2024 @ 14:32:
[...]
Waarom zou diegene zijn post daar over weg halen. Kli kt wel heel ongeloofwaardig.
Als je in de relevante topics gaat zoeken kun je het overigens indirect wel terugvinden.
Loop hier 25jr rond. Wat schiet ik ermee op om zoiets te verzinnen en daarmee mijn reputatie naar de prullenmand te helpen
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Hoewel je een terecht argument plaatst, kan hetzelfde de andere kant op geplaatst worden.Ludewig schreef op donderdag 18 april 2024 @ 11:29:
[...]
Svp argumenten gebruiken ipv slechts meningen plaatsen.
Er wordt veel nagepraat op Youtubers en Reddit, die soms wat meer, maar ook heel vaak totaal geen bekende positieve track record hebben.
Ik kan mij inderdaad ook de persoon herinneren die hier een geval heeft geplaatst, maar om welke reden dan ook heeft weggehaald. Hetzelfde geldt voor de PCIe 8 pins aansluiting, daar zijn ook gesmolten gevallen van gemeld hier op Tweakers, veelal door zeer slechte aansluiting (scheef) of slechte kwaliteit PSU.
Verreweg de meeste problemen worden door die Cablemod 90 graden converters gemeld via die Youtube reparateur. Ik ben persoonlijk geen fan om dergelijke converters van een derde partij te kopen, had dit in de hele verhitte periode al aangegeven, koop dat soort dingen nu niet.
Achteraf makkelijk praten, maar nu blijken die dingen dus ook daadwerkelijk ondeugdelijk, bevestigd door het bedrijf zelf.
Het probleem wordt echt veel groter gemaakt dan het is.
Wel is het wetenschappelijk te onderbouwen dat het risico bij deze connector altijd groter zou zijn. Kan niet anders met de natuurkundige wetten. Kleiner oppervlak met hetzelfde materiaal (laten we koper nemen in dit voorbeeld) met evenveel vermogen levert altijd meer warmte, dus meer risico van oververhitting op.
Ik heb een Corsair voeding en specifieke kabel door hen geleverd voor mijn 4090, die klikt er goed op met geluid en komt echt niet los zonder de lip in te klikken. Vrij goed geprobeerd.
Dan nog, N=1 hier, maar ook zijn er blijkbaar mindere kwaliteit kabels, dat maakt het een potentieel risico. De clip is een stuk kleiner dan de PCIe8/6 pinst connector, dus dat kun je objectief een groter risico noemen, hoewel ik daar persoonlijk bij denk dat het wel meevalt.
Het argumenten punt moet hoe dan ook wel beide kanten opgaan en als het Nvidia betreft, is dat niet altijd iets wat men in acht neemt om welke reden dan ook.
Ik zeg niet dat jij dat doet, maar wilde daar wel even op inhaken.
Ik zeg niet dat Nvidia heilig is, zeer zeker niet, maar vind het onzinnig dat er vaak een merken bias is, welke kant op dan ook.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Dit dus. En dan hen je ook nog youtube helden die een stekker kompleet los wrikken en dan nog werkt het naar behoren.stylezzz schreef op donderdag 18 april 2024 @ 14:40:
[...]
En niet heel toevallig zijn het altijd youtube helden die er last van hebben.
мы идем к победе
200 connectors per maand vervangen.DaniëlWW2 schreef op zaterdag 13 april 2024 @ 08:58:
Ondertussen lijken de problemen met die "geweldige" connector, zeker nog niet voorbij.
Hij heeft gewoon een doos vol met connectoren die blijkbaar afgelopen maand zijn vervangen.![]()
[YouTube: 4090's Still melting. What I think about CableMod]
Maar dat is veel te gemakkelijk bedacht, veel te betrouwbaar en veel te brede/grote connector voor de Amerikaanse ontwerpfilosofie dat normaal gezien de grote tegenstelling tov de Europese (en russische) ontwerpfilosofie van bestaande ontwerpen aanpassen/upgraden om projectrisico's minimaal te houden en toch nog een competitief genoeg product te leveren dat met clean sheet design kan concurreren.DaniëlWW2 schreef op zaterdag 13 april 2024 @ 13:01:
[...]
Hopen dat die 16 pin, gewoon twee van de oudere 8 pin connectoren zijn met een hogere, gegarandeerde rating per pin.
Amerikanen willen graag voor clean sheet design gaan, niks hergebruiken, projectrisico's naar de maan, wiel opnieuw uitvinden, veel kinderziektes binnenhalen,... Dit is niet alleen in aerospace, EV,... ontwerpen goed zichtbaar.
Zelfs de connector aan de grafische kaart moet volgens het cliché van overpriced, rampzalige defensie-aanbesteding.
Te klein en te nauwe toleranties om in de praktijk veilig gebruikt kunnen worden. De dikke draden wegen wat en trekken aan een te kleine connector totdat het slecht contact maakt, opwarmt en doorbrandt. Tienden (van een) millimeter maakt een verschil.
Teveel engineers denken dat mechanisch ontwerp, kwaliteit van cabling,... niet belangrijk is. Alles zal wel op een magische wijze werken zonder met de fysica rekening te houden.
De oude 6 of 8 pins connectoren hadden redundantie. Als 1 van de 2 of 3 +12 V pinnen niet goed contact maakt, dan is er geen probleem. De resterende pinnen kunnen genoeg stroom doorgeven om opwarmen of smelten te voorkomen.
Hoeveel stroom kan een pin verdragen?
Vlak boven in 't geel gemarkeerde staat dat de tabel opgesteld is met de aanname dat 30 °C opwarming acceptabel is. Tijdens een hete zomerdag kan de temperatuur in een behuizing 40+ °C halen en de connector wordt dan 70+ °C.
In 't geel aangeduid dat je aan derating moet doen afhankelijk van veel parameters.

Met een voldoende dikke draad kan een messing pin in 6-pins connector tot 8 A gaan, in 8-pins connector tot 7 A gaan en in een 12 of meer pins connector tot 6 A gaan.
In een 6-pin connector zitten 2 pinnen voor +12 V en 2 pinnen voor de massa. Als 1 van de 2 pinnen mag wegvallen, dan wordt 75 / 12 = 6,25 A door 1 pin gestuurd. Ruim onder 8 A per pin.

In een 8-pin connector zitten 3 pinnen voor +12 V en 3 pinnen voor de massa. Als 1 van de 3 pinnen mag wegvallen, dan wordt 150 / 12 = 12,5 A over 2 pinnen gespreid. Netjes onder 7 A per pin.
Wat als je 8-pin connector uitbreidt met 4 +12 V pinnen en 4 massa pinnen? Als 1 van de 7 pinnen wegvalt, dan wordt 450 / 12 = 37,5 A over 6 pinnen gespreid en dat is gemiddeld 6,25 A per pin. 6,25 A is boven 6 A maximum. In de praktijk zal er een pin zijn die beter geleidt (bv 6,5 A doorlaten) en een pin die slechter geleidt (bv 6 A doorlaten). Met een 16-pins connector is bij 450 W alle 7 pinnen nodig om gemiddeld 5,36 A per pin te belasten. Zelfs met het inferieure fosforbrons, wordt het maximum van 5A per pin niet veel overschreden.
Ik vind dat een 300 W grafische kaart al hard genoeg stookt. 450 W is een goede bovengrens voor een grafische kaart in een PC. Wie 2 zulke grafische kaarten en een 14900KS heetkop wilt, zit tegen de limiet van het Amerikaanse stopcontact. Eventjes krachtstroom naar je PC leggen?
Met 20-pins connector kan het naar 600 W uitgebreid worden, maar dan spreken we over de formaatje 20-pins ATX-connector van vroeger. 600 / 12 = 50 A en gedeeld door 9 pinnen is 5,56 A per pin.
Stel dat ik voor interesse in AI krijg en een RTX 4090 met gesmolten connector overneem? Welke connector en pigtail zal ik eraan solderen. Ik heb op voorraad XT60 en XT90 (populair bij de drones), Anderson SB50 connector met krimpcontacten (kleine broer van de heftruckaccustekkers, populair bij de Australische pickup trucks in de Outback),...
SB50 aan een computervoeding moet wel stoer zijn. Nog een instelbare TS-800 DC/DC-converter van de plank halen en ik zet 50A laadstroom bij 14,4 of 14,7 V op een accubank. Daarvoor heb ik wel een 850W voeding nodig.
Je zou bijna afvragen: Waarom niet de overstap naar 48V zoals in mild hybrides? 600 / 48 = 12,5 A en dat past mooi in een oude 8-pin connector. In de auto-industrie hebben ze lang aan de 12 V boordspanning vastgeklampt, maar kunnen niet aan de voordelen van 48V weerstaan:
Het scheelt veel in connectors, draadoppervlakte,...12-volt systems can provide only 3.5 kilowatts, while a 48 V power could achieve 15 to 20 kW or even 50 kW. 48 volts is below the level that is considered safe without special protective measures.[11]
Wikipedia: 48-volt electrical system
Over auto's gesproken, bij de ANWB weten de monteurs welke automerken en bouwjaren combinaties hebben te kleine connectoren die doorbranden en ervoor zorgen dat de dimlichten niet meer werken. Dat moeten ze bypassen.
Als ik naar low Rds(on) MOSFET's kijk, dan hebben de laagste Rds(on) een Vds van 20, 25 of 30V. 24 V DC is gunstig om 30V Vds MOSFET's te kunnen gebruiken. Powerstages zijn op 12V geoptimaliseerd, maar kunnen ook voor 24V geoptimaliseerd worden.
450 / 24 = 18,75 A en gedeeld door 3 pinnen is 6,25 A. Met 24V kan 450 W door de oude 8-pin connector gejaagd worden.
Toestemming nodig voor bekijken van YouTube
Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.
Bekijk op YouTube[ Voor 15% gewijzigd door Help!!!! op 19-04-2024 11:28 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
rapture schreef op donderdag 18 april 2024 @ 20:30:toon volledige bericht
[
Maar dat is veel te gemakkelijk bedacht, veel te betrouwbaar en veel te brede/grote connector voor de Amerikaanse ontwerpfilosofie dat normaal gezien de grote tegenstelling tov de Europese (en russische) ontwerpfilosofie van bestaande ontwerpen aanpassen/upgraden om projectrisico's minimaal te houden en toch nog een competitief genoeg product te leveren dat met clean sheet design kan concurreren.
Amerikanen willen graag voor clean sheet design gaan, niks hergebruiken, projectrisico's naar de maan, wiel opnieuw uitvinden, veel kinderziektes binnenhalen,... Dit is niet alleen in aerospace, EV,... ontwerpen goed zichtbaar.
Zelfs de connector aan de grafische kaart moet volgens het cliché van overpriced, rampzalige defensie-aanbesteding.
Te klein en te nauwe toleranties om in de praktijk veilig gebruikt kunnen worden. De dikke draden wegen wat en trekken aan een te kleine connector totdat het slecht contact maakt, opwarmt en doorbrandt. Tienden (van een) millimeter maakt een verschil.
Teveel engineers denken dat mechanisch ontwerp, kwaliteit van cabling,... niet belangrijk is. Alles zal wel op een magische wijze werken zonder met de fysica rekening te houden.
En ik met mijn achtergrond als militair historicus, maar denken dat het de Duitsers zijn die hier schuldig aan zijn. Dat klopt overigens niet helemaal, maar die mythe is erg hardnekkig.
Maar ik weet niet of ik het zou willen typeren als een noodzaak om opnieuw te beginnen. Ik vermoed eerder dat deze connector bestaat voor marketing redenen en vooral goedkoop moest zijn. Niet meer twee grotere connectoren, meer kabels en meer werk op een groter PCB. Alles kleiner en dus goedkoper. De resultaten zien we. Het is en blijft gewoon een knudde ontwerp zonder echte technische noodzaak. De kleinere connector en minder kabels, lijkt er alleen te zijn voor de RGB showcomputers.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Wat ik weer jammer vind is dat er niet duidelijk te zien is welke 12VHPWR connector nodig is bij welke kaart (oftewel hoeveel vermogen), en daarbovenop dat PSU fabrikanten gewoon overal een 600W kabel bij gooien.
Als die connectors door je strot worden geduwd (geen andere opties) terwijl ze gebruikt worden op kaarten van tegenwoordig 2000 euro of meer dan mag je toch hopen dat het een goed ontwerp is?Sissors schreef op zaterdag 20 april 2024 @ 12:15:
Dat de 12VHPWR connector beter had gekund, prima. Maar laten we niet net doen alsof de 8-pins connectoren zo perfect zijn. Tweakers staat vol met veel meer problemen die potentieel daardoor komen, dan door de 12VHPWR. Okay, er worden natuurljk ook nog veel meer 8-pins connectoren gebruikt, maar een heel rijtje voedingsconnectoren op je GPU, en dan PSUs die je er netjes in kan duwen, maar dat dat niet mag omdat het netjes past, maar het niet hoort, en je meerdere kabels moet gebruiken zodat er wat dingen blijven rondbungelen, is ook niet exact ideaal.
Wat ik weer jammer vind is dat er niet duidelijk te zien is welke 12VHPWR connector nodig is bij welke kaart (oftewel hoeveel vermogen), en daarbovenop dat PSU fabrikanten gewoon overal een 600W kabel bij gooien.
Velen hebben zich erover gebogen en niemand vond het goed uitgevoerd. 400w en hoger is niet bepaald weinig op 12v en er vliegen aardig wat ampere's doorheen. Dan moet je zoiets wel veilig uitvoeren .
1 connector die iets groter is met dikkere contacten en wat verder uit elkaar was vele malen veiliger geweest.
Inderdaad.
Eén connector ziet er stuk beter uit en kan praktischer zijn maar dan moet het wel goed uitgevoerd worden.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Je ziet deze aansluiting bijvoorbeeld tegenwoordig ook op Nvidia / HPE kaarten voor gebruik in o.a. in HPE Z Series e.d. workstations (o.a.ADA 6000 en 5000 series) en ik moet zeggen dat ik er sinds introductie nog geen probleem mee heb gezien, anders dan in 'de media'.
Van mij 'hoeft' die connector ook niet, maar de enorme problemen die sommigen zien, zie ik in ieder geval in de praktijk niet.
[ Voor 4% gewijzigd door Dennism op 20-04-2024 17:41 ]
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
[ Voor 31% gewijzigd door Dennism op 20-04-2024 18:55 ]
Wat wel veel schijnt te gebeuren is dat mensen de connector afbreken, omdat ze teveel kracht moeten zetten om hem in te pluggen dan wel niet door hebben dat hij al goed ingeplugd is.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Dat zou het ook geweest kunnen zijn, dat mensen het niet merken onder load en pas merken dat er wat aan de hand is. Maar ik zag toen het 'hot' item was release wel wat posts op de diverse tech forums van mensen die claimden dat de boel aan het smeulen was c.q. onstabiel gedrag constateerden zonder noemenswaardige load op het system tijdens moment van constateren.
Maar al met al blijft mijn vraag nog wel staan, over wat voor percentages hebben we het nu echt. Dat het goud geld is voor techtubers wordt wel duidelijk op deze manier. Maar ik vraag me nog steeds wel af of het nu echt een probleem is in de zin van dat procentueel gezien een groot deel van de kaarten hier tegenaan gaan lopen, hoe goed of slecht de gebruiker de boel ook aangesloten heeft, of dat het iets is dat de gemoederen bezig blijft houden, maar in de praktijk gezien het overgrote gedeelte van de gebruikers nooit zal raken.
[ Voor 34% gewijzigd door Dennism op 20-04-2024 19:52 ]
Dat is slechts 1 shop.....
Tis net als het nieuws, waarin je steeds minder hoort over een oorlog maar dat de oorlog niet minder wordt. Tis gewoon geen nieuws meer.
Maar dat is nu juist van die data die op het grote plaatje mogelijk niet heel veel zegt, maar het wel groot laat lijken. Volgens mij was het trouwens niet 200 kaarten per maand, maar toevallig 200 kaarten in een bepaalde maand. 200 kan heel veel zijn, maar ook heel weinig. Juist om daar duiding aan te geven is meer data nodig.meljor schreef op zondag 21 april 2024 @ 13:09:
Vorige week ofzo nog een bericht op videocardz van een Repair Shop die zo'n 200 kaarten per maand binnen kreeg.
Dat is slechts 1 shop.....
Tis net als het nieuws, waarin je steeds minder hoort over een oorlog maar dat de oorlog niet minder wordt. Tis gewoon geen nieuws meer.
Want het is inderdaad slechts een shop, maar hoeveel van die shops zijn er? Deze reparateur lijkt zich bijvoorbeeld een ook beetje te profileren als 'de expert' op gebied van deze reparaties en zijn diensten ook US breed aan te bieden. En dan nog blijft het vreemd dat die mensen naar zo'n 3rd party repair service gaan, in plaats van de reclameren bij de verkoper, wat je zou verwachten wanneer met meent dat het geen user error is.
En hebben we dan bijvoorbeeld in Nederland ook zo'n shop? Ik heb bijvoorbeeld in het 'wild' nog geen enkel probleem geval gezien, maar ook hier op Tweakers zie je maar weinig gevallen, tenzij ik het mis heb. Waardoor ik zo nu en dan het idee dat het relatief gezien maar vrij weinig optreed, echter wanneer het optreed is het natuurlijk wel enorme domper voor die gebruiker. Maar goed, die inschatting van mij kan er natuurlijk ook volledig naast zitten.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Met mij erbij is het alweer N=2.Sissors schreef op donderdag 18 april 2024 @ 07:47:
[...]
Dat is natuurlijk helemaal nietszeggende N=1 ervaring. Ik heb in minder dan 30 jaar PCs bouwen wel een gesmolten stekker gehad. En dat was geen 12-pins connector, het was de PSU kant van een rm550x PCIe kabel set die gesmolten was.
Ik ben dan wel wat later begonnen met zelf PC's in elkaar aan het knutselen. Vanaf 2001 voor het eerst van de grond af. Daarvoor wel af en toe in de PC kasten gespiekt en onderdelen verwisseld.
De tijd van 'Amphenolex'

Echt vertrouwen heb ik nooit in de dingen gehad in tegenstelling tot de MiniFit's.
In ieder geval heb ik zelf nog geen ervaring gehad met een gesmolten connector, waarbij ik de laatste 7 jaar echt actief ben geworden met het tweaken & tunen van PC hardware en het maken van testopstellingen.
M.a.w. de hardware en kabels zijn redelijk vaak uitgewisseld en verhuist van systeem naar systeem.
Voor de 12VHPWR en MiniFit geldt volgens specificatie dat deze maximaal 30 keer opnieuw verbonden mogen worden. Een getal wat ik allang voorbij ben gegaan met de huidige (deels misbruikte) EPS en PCIe kabels.
Met de MiniFit levert dat (vooralsnog) geen problemen op vanwege de grote veiligheidsmarge, maar met de 12VHPWR en derivaten zou ik dat absoluut niet aandurven. En om nu een (onderhouds)logboek bij te gaan houden..
Ik ben oprecht benieuwd naar hoe groot dit probleem in werkelijk is en waarom er geen vergelijkbare nieuwsberichten zijn geweest met de 3090Ti (erg vergelijkbaar met de 4090 qua bouw en vermogen), zoals eerder geopperd. Voor de 3090 valt nog te zeggen dat deze een schuine connector insteekpositie had en daarbij een gematigd vermogen. Maar de 3090Ti moet net zo kwetsbaar zijn als de 4090.Dennism schreef op zondag 21 april 2024 @ 15:44:toon volledige bericht
[...]
Maar dat is nu juist van die data die op het grote plaatje mogelijk niet heel veel zegt, maar het wel groot laat lijken. Volgens mij was het trouwens niet 200 kaarten per maand, maar toevallig 200 kaarten in een bepaalde maand. 200 kan heel veel zijn, maar ook heel weinig. Juist om daar duiding aan te geven is meer data nodig.
Want het is inderdaad slechts een shop, maar hoeveel van die shops zijn er? Deze reparateur lijkt zich bijvoorbeeld een ook beetje te profileren als 'de expert' op gebied van deze reparaties en zijn diensten ook US breed aan te bieden. En dan nog blijft het vreemd dat die mensen naar zo'n 3rd party repair service gaan, in plaats van de reclameren bij de verkoper, wat je zou verwachten wanneer met meent dat het geen user error is.
En hebben we dan bijvoorbeeld in Nederland ook zo'n shop? Ik heb bijvoorbeeld in het 'wild' nog geen enkel probleem geval gezien, maar ook hier op Tweakers zie je maar weinig gevallen, tenzij ik het mis heb. Waardoor ik zo nu en dan het idee dat het relatief gezien maar vrij weinig optreed, echter wanneer het optreed is het natuurlijk wel enorme domper voor die gebruiker. Maar goed, die inschatting van mij kan er natuurlijk ook volledig naast zitten.
Voor een betrouwbaar beeld van het probleem is de enige manier om een een inventarisatie te doen van alle RMA gevallen bij alle GPU fabrikanten, waaronder Nvidia zelf.
Maar of deze ook dit soort data willen prijsgeven? Het zou mij niets verbazen als het 3-4 koppige hydra-adapter monster van Nvidia een factor is.
Ik denk i.i.g. niet dat de schaal van het probleem goed achterhaald kan worden via een site zoals Tweakers, Computerbase, Hardwareluxx e.d.
De forumleden zijn over het algemeen goed geïnformeerd, technischer en zullen meer attent zijn bij dit soort zaken, helemaal als er media aandacht aan besteed is.
In zekere zin leven we hier in een bubbel van liefhebbers en hobbyisten, terwijl de afzetmarkt wellicht velen malen groter is.
Ik kan wel beamen dat hier op Tweakers i.i.g. 1 iemand was met de ervaring van een gesmolten connector.
Volgens mij was het met een Cablemod 90° adapter en was degene ervan overtuigd alles goed aangesloten te hebben. De oorzaak laat zich gissen en persoonlijk vermoed ik dat het kleine beetje schranken / bovenwaartse druk op de connector voldoende was voor een brak contact.
Wat niet betekend dat de 12HPWR dan geen blaam treft (het stelt grote vraagtekens als een connector zo gevoelig is voor een juist contact).
Nog een opvallendheid in het algemeen. Van de smeltgevallen zijn het voornamelijk de bovenste rij pinnen die smelten. De reden daarvoor is dat de retourstroom door de connector een stuk kleiner is en gedeeltelijk over het moederbord loopt (N.B. via de CPU EPS connector(en)).
Het is een leuk artikel om door te lezen: https://www.igorslab.de/e...on-detours-investigative/
Toch nog een reden gevonden om 500W aan powa voor de 105W CPU aan te sluiten

Ik verbaas me er ook heel erg over ja.Sissors schreef op zondag 21 april 2024 @ 22:57:
Dat laatste verbaasd mij enorm. Gaan er dan niet veel hogere stromen door de PCIe connector dan waar die voor ontworpen is?
Het PCIe slot mag volgens de standaard inderdaad maximaal 5.5 of 6A leveren, of deze maximale stroomsterkte ook is vastgelegd voor de ground of alleen de +12V voor het PCIe slot weet ik niet. Kan het ook niet echt goed opzoeken gezien de officiële specificatie betaald is maar hetgeen via Ground wordt afgevoerd is het bijna het dubbele daarvan, en dat is met 'slechts' een 4070Ti S; wil niet weten wat een 4090 dan zal doen.
Wel heeft een op x16 werkende kaart significant meer pinnen verbonden aan de ground dan +12V pinnen, van die laatste zijn er slecht 3 helemaal aan het begin van het slot terwijl er voor ground tientallen zijn. Dus het zou wellicht kunnen dat dit wat Igorlabs heeft gemeten gewoon veilig kan wat het PCIe slot betreft, maar ik zou er zelf ook niet zo happig/gerust op zijn dat er zoveel stroom zich een weg moeten banen door de traces op het moederbord helemaal richting de EPS connecto.
Er is een verschil tussen wat de spec toe laat en waar hij voor ontworpen is, net als bij de stekkersSissors schreef op zondag 21 april 2024 @ 22:57:
Dat laatste verbaasd mij enorm. Gaan er dan niet veel hogere stromen door de PCIe connector dan waar die voor ontworpen is? En sowieso wil je mooie stroompaden hebben, ipv hele lussen door je halve PC heen, dat is vragen om problemen zou ik denken.
De spec laat slechts 5,5A (66W) toe op de 12V; daarnaast nog eens 3A op 3,3V (9,9W) - totaal 74,9W ofwel de 75W die we allemaal kennen.
Wat er daadwerkelijk doorheen kán is een heel ander verhaal. Ik zou de spec er op na moeten slaan om de fysieke samenstelling te zien (hoeveel koper, hoe breed de pinnen zijn), maar ga er maar van uit dat je door een enkele "pin" zonder problemen 5A kunt jagen, als het niet meer is. Het grote verschil met stekkers is ook dat je geen wiebelende contactpunten hebt: het contact tussen PCB en connector is vele malen beter en door een PCB kun je veel meer jagen dan je wellicht denkt. Dus geen vonken en veel minder efficiëntie verlies.
Dat is ook waarom een "power board" en dingen zoals de BTF connectors duizend keer veiliger zijn dan stekkers. Het is een stuk lastiger uit te leggen dan stekkers, want een PCB bestaat uit meerdere lagen met meerdere koper traces. Hoeveel je er doorheen kunt jagen hangt af van hoe dik je koper laag is, hoe breed je trace is, temperatuur, enzovoort maar er is niet zo heel veel nodig om 10A te behapstukken. Een paar mm breed aan "1oz" (Amerikaanse ounce per vierkante voet...iets van 35 micrometer in zinvolle eenheden als ik het me goed herinner
Kijk voor de gein eens naar wat grote stroomverbruikers in je huis; of afhankelijk van waar je werkt, de PCB's voor grote industriële machines, of backplanes. Daar loopt ontzettend veel stroom doorheen en dat is geen enkel probleem.
Bij PCB's wordt doorgaans ook een 3x marge gehanteerd.
Igor heeft wel gelijk dat er eens goed naar gekeken moet worden, want de circuits lopen duidelijk niet zoals het hoort.
Dat gezegd hebbende, laat het ook wel wederom zien wat ik al de hele tijd zeg: de bestaande stekkers zijn extreem overbemeten. EPS is gewoon een Mini-Fit Jr, dus zelfs met fosfor brons mag er 6A per pin doorheen. Die 13,5A is geen enkel probleem. Moet volgens de EPS spec ook verdeeld worden over twee rails, die elk minimaal 16A continu moeten kunnen leveren.
Ben dus niet de enige die dat gedaan heeftCMT schreef op zondag 21 april 2024 @ 19:36:
De tijd van 'Amphenolex'stekkers waar @Werelds op geattendeerd heeft, heb ik nog meegemaakt en dat waren echte ondingen. Nu was het vermogen destijds lang niet zo spannend als nu, maar je kon iedere keer weer de dichtgedrukte splitpennen met een schroevendraaier open wrikken.
Wist ik veel dat je daar speciaal gereedschap voor had
[ Voor 9% gewijzigd door Werelds op 22-04-2024 10:00 ]
En dat moet ook. Vanwege verschillende implementaties door verschillende fabrikanten, variatie per product, gebruik in systemen die extreem variëren, gebruik in systemen met andere producten die vreemde dingen doen (zoals lekstromen), gebruik door consumenten die niet allemaal even netjes zijn, etc; moet je gewoon een stevige foutmarge hebben.Werelds schreef op maandag 22 april 2024 @ 09:59:
[...]
de bestaande stekkers zijn extreem overbemeten.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
CMT schreef op zondag 21 april 2024 @ 19:36:
Nog een opvallendheid in het algemeen. Van de smeltgevallen zijn het voornamelijk de bovenste rij pinnen die smelten. De reden daarvoor is dat de retourstroom door de connector een stuk kleiner is en gedeeltelijk over het moederbord loopt (N.B. via de CPU EPS connector(en)).
Het is een leuk artikel om door te lezen: https://www.igorslab.de/e...on-detours-investigative/
Toch nog een reden gevonden om 500W aan powa voor de 105W CPU aan te sluiten
!mark schreef op maandag 22 april 2024 @ 00:00:
[...]
Ik verbaas me er ook heel erg over ja.
Het PCIe slot mag volgens de standaard inderdaad maximaal 5.5 of 6A leveren, of deze maximale stroomsterkte ook is vastgelegd voor de ground of alleen de +12V voor het PCIe slot weet ik niet. Kan het ook niet echt goed opzoeken gezien de officiële specificatie betaald is maar hetgeen via Ground wordt afgevoerd is het bijna het dubbele daarvan, en dat is met 'slechts' een 4070Ti S; wil niet weten wat een 4090 dan zal doen.
Wel heeft een op x16 werkende kaart significant meer pinnen verbonden aan de ground dan +12V pinnen, van die laatste zijn er slecht 3 helemaal aan het begin van het slot terwijl er voor ground tientallen zijn. Dus het zou wellicht kunnen dat dit wat Igorlabs heeft gemeten gewoon veilig kan wat het PCIe slot betreft, maar ik zou er zelf ook niet zo happig/gerust op zijn dat er zoveel stroom zich een weg moeten banen door de traces op het moederbord helemaal richting de EPS connecto.
:fill(white):gifsicle():strip_exif()/f/image/h90A9HTMJkZDOGJj9a03eUQX.gif?f=user_large)
Rond elke signaalpaar zet je massa/GND-pinnen als afscherming tegen interferentie.
Met 16 lanes heb je een overvloed aan GND dat in een ground plane gaat en moederbordfabrikanten kunnen ook lekker veel lagen GND toevoegen.

De claim dat het koeler is, is vooral tijdens het solderen merkbaar. Ground plane zuigt de warmte uit de soldeerbout en werkt zoals een koeler.
5,5A mag door 5 +12V pinnen gaan en dit wordt geregeld door een beperkt aantal mosfets of powerstages aan de PCIe slot aan te sluiten.
Als ik het vereenvoudiging naar 1A per pin, dan zie ik meer dan 60 pinnen of 60A dat via de slot naar de massa/GND kan gaan. En via de 8-pin EPS12V stekker mag tot 28A terug naar de voeding.
Dan nog niet vergeten dat de massa via het slotplaatje van een grafische kaart aan de behuizing, voeding en via de afstandhouders aan het moederbord doorverbonden is.
De stroom volgt het pad van laagste weerstand en belast de massapinnen in de 16-pin connector niet veel.
Dat waren inderdaad andere tijden. Splitpennen openwrikken zodat het lekker goed inklemt.CMT schreef op zondag 21 april 2024 @ 19:36:
De tijd van 'Amphenolex'stekkers waar @Werelds op geattendeerd heeft, heb ik nog meegemaakt en dat waren echte ondingen. Nu was het vermogen destijds lang niet zo spannend als nu, maar je kon iedere keer weer de dichtgedrukte splitpennen met een schroevendraaier open wrikken.
En de ventilatoren die met bijbelpapieren dunne draadjes aan een 'Amphenolex' doorlusblokje hingen. In de jaren 90 had ik een PC waar de isolatie van zulke draadjes spontaan eraf smolt, vonken en rook in de PC. Overal scherpe randen in een behuizing en af en toe een bloedoffer was vroeger ook de norm.
Hoewel de shielding pinnen inderdaad een goed punt zijn die ervoor zorgen dat er genoeg ground pinnen zijn, zijn dat wel pinnen voor je RF return current, of je daardoor je (vuile) ground return stroom wil laten lopen van je PCIe stekkers vraag ik me nog steeds af.rapture schreef op maandag 22 april 2024 @ 10:40:toon volledige bericht
[...]
[...]
[Afbeelding]
Rond elke signaalpaar zet je massa/GND-pinnen als afscherming tegen interferentie.
Met 16 lanes heb je een overvloed aan GND dat in een ground plane gaat en moederbordfabrikanten kunnen ook lekker veel lagen GND toevoegen.
[Afbeelding]
De claim dat het koeler is, is vooral tijdens het solderen merkbaar. Ground plane zuigt de warmte uit de soldeerbout en werkt zoals een koeler.
5,5A mag door 5 +12V pinnen gaan en dit wordt geregeld door een beperkt aantal mosfets of powerstages aan de PCIe slot aan te sluiten.
Als ik het vereenvoudiging naar 1A per pin, dan zie ik meer dan 60 pinnen of 60A dat via de slot naar de massa/GND kan gaan. En via de 8-pin EPS12V stekker mag tot 28A terug naar de voeding.
Dan nog niet vergeten dat de massa via het slotplaatje van een grafische kaart aan de behuizing, voeding en via de afstandhouders aan het moederbord doorverbonden is.
De stroom volgt het pad van laagste weerstand en belast de massapinnen in de 16-pin connector niet veel.
RF return current?Sissors schreef op maandag 22 april 2024 @ 19:24:
[...]
Hoewel de shielding pinnen inderdaad een goed punt zijn die ervoor zorgen dat er genoeg ground pinnen zijn, zijn dat wel pinnen voor je RF return current, of je daardoor je (vuile) ground return stroom wil laten lopen van je PCIe stekkers vraag ik me nog steeds af.
De TX of RX is niet een enkele draad dat een spanning wat hoger of lager tov de massa zet. Het gebruikt niet de massa als referentie.
Wel differentiële signalisatie over 2 draden (TXP en TXN, RXP en RXN). Als de ene draad wat storing (zoals vuile stroom wordt goed over de GND-pinnen verspreid zodat ze allemaal ongeveer even veel of weinig storen) oppikt, dan gebeurt hetzelfde met de andere draad. Is de spanning beetje omhoog geduwd, het verschil tussen de opdrukte spanningen op de beide draden is nog altijd hetzelfde.
De ontkoppelingscondensatoren aan de TX-zijde zorgt ervoor dat er geen (DC)stroom kan lopen. Het is wel AC-gekoppeld.
Op TI forum vind ik een schema waar je de verbindingen tussen TX en RX kan zien.

https://e2e.ti.com/suppor...istors-on-pci-e-tx-and-rx
Idealiter is het signaal precies differentieel inderdaad. In de praktijk zal er een common mode gedeelte zijn, die common mode stroom moet ook weer terug, en dat wil je via een zo kort mogelijk pad zodat je niet een grote stroomkring krijgt, en dat kan dus via de shield pinnen ernaast.rapture schreef op dinsdag 23 april 2024 @ 22:50:toon volledige bericht
[...]
RF return current?
De TX of RX is niet een enkele draad dat een spanning wat hoger of lager tov de massa zet. Het gebruikt niet de massa als referentie.
Wel differentiële signalisatie over 2 draden (TXP en TXN, RXP en RXN). Als de ene draad wat storing (zoals vuile stroom wordt goed over de GND-pinnen verspreid zodat ze allemaal ongeveer even veel of weinig storen) oppikt, dan gebeurt hetzelfde met de andere draad. Is de spanning beetje omhoog geduwd, het verschil tussen de opdrukte spanningen op de beide draden is nog altijd hetzelfde.
De ontkoppelingscondensatoren aan de TX-zijde zorgt ervoor dat er geen (DC)stroom kan lopen. Het is wel AC-gekoppeld.
Op TI forum vind ik een schema waar je de verbindingen tussen TX en RX kan zien.
[Afbeelding]
https://e2e.ti.com/suppor...istors-on-pci-e-tx-and-rx
Het zou kunnen dat de grounds enkel als voltage shield worden gebruikt richting de signalen ernaast, maar ik zou zelf verwachten dat ze ook voor common mode stroom gebruikt worden.
Weet er iemand wanneer er weer een beurs is van Nvidia?
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Mis ik iets? Dit kan al lang met de 4090, en wss ook met de 4080.MetalSonic schreef op donderdag 25 april 2024 @ 22:17:
Hopelijk de 5000 serie dit jaar en anders volgend jaar. Ben benieuwd of die sterk genoeg zijn om de nieuwste flight simulator @4k @ ultra settings @ 60 te draaien of de nieuwste city skylines etc. Uiteraard met acceptabele temperaturen
Weet er iemand wanneer er weer een beurs is van Nvidia?
YouTube: Microsoft Flight Simulator - 4K DLSS 3 Ultra Settings | RTX 4090 | 1...
Gaat zelfs al richting de 150+.
Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME
Dat is met dlss3.... Native 4k is VEEL zwaarder en dan heeft zelfs de 4090 hier en daar moeite om 60fps vast te houden.Visgek82 schreef op vrijdag 3 mei 2024 @ 23:14:
[...]
Mis ik iets? Dit kan al lang met de 4090, en wss ook met de 4080.
YouTube: Microsoft Flight Simulator - 4K DLSS 3 Ultra Settings | RTX 4090 | 1...
Gaat zelfs al richting de 150+.
Goed, maar aan de andere kant, ik speel zelf dan veel liever op 100+ met dlss dan 60 op native. Het verschil zie je toch niet (of nauwelijks) maar de soepelheid merk je duidelijk, zelfs met flight simulator.meljor schreef op zaterdag 4 mei 2024 @ 09:28:
[...]
Dat is met dlss3.... Native 4k is VEEL zwaarder en dan heeft zelfs de 4090 hier en daar moeite om 60fps vast te houden.
Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME
Volgens mij las ik dat ze die "waarschijnlijk" wel gaan presenteren, maar dat de kans groot is dat de 5090 dit jaar nog wel komt, maar de 5080 dit jaar niet gaat redden. Weet zo niet meer waar, lees al die dingen op de iPhone als ik Chrome open krijg je van die suggesties.Ludewig schreef op donderdag 25 april 2024 @ 22:30:
Nvidia en AMD hebben 2/3 Juni de volgende keynote (Computex). Dat wil trouwens niet zeggen dat er dan nieuwe GPU's worden gepresenteerd.
Oh hier:
https://www.techradar.com...aptop-gpus-look-promising
Maar allemaal rumor dit, likely that.
[ Voor 17% gewijzigd door JDx op 04-05-2024 10:34 ]
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
nVidia heeft de laatste keren in het najaar gelaunched.
Lijkt mij ook stuk waarschijnlijker dan dat ze al begin juni gaan presenteren want hun huidige serie kan nog makkelijk mee tot het najaar en de wafers gebruiken ze toch liever voor hun nieuwste AI chips e.d.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Maar het verhaal gaat ook dat de daadwerkelijke beschikbaarheid van de 5090 dan nog wel even zou kunnen duren.
Dit lijkt allemaal nogal speculatief.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
MSFS is zo'n beetje de best case voor DLSS 3, want je hebt weinig situaties waar er plotseling iets totaal nieuws in beeld komt of waarbij het uitmaakt dat je een lage input delay hebt.Visgek82 schreef op zaterdag 4 mei 2024 @ 09:34:
[...]
Goed, maar aan de andere kant, ik speel zelf dan veel liever op 100+ met dlss dan 60 op native. Het verschil zie je toch niet (of nauwelijks) maar de soepelheid merk je duidelijk, zelfs met flight simulator.
Bij een combat flight sim is het al weer anders en zul je veel sneller last hebben van artifacts of dat je iets later reageert op een actie van de tegenstander dan zonder frame generation.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Dus dat, dan moet je dus al grafische "truukjes" gebruiken. Het is geen oorspronkelijke 4k en dan heb je geen dikke fps. En dan moet ik het nog niet eens hebben over de vervelende 1% low.meljor schreef op zaterdag 4 mei 2024 @ 09:28:
[...]
Dat is met dlss3.... Native 4k is VEEL zwaarder en dan heeft zelfs de 4090 hier en daar moeite om 60fps vast te houden.
Je kan je natuurlijk afvragen in hoeverre de kaart niet sterk genoeg is of dat het beter had moeten worden geprogrammeerd. Het zal ergens in het midden zitten. Ik ben benieuwd naar de volgende GPU serie.
Van de 4000 serie ben ik zwaar onder de indruk van de koelprestaties incombinatie van hoe stil ze zijn. Ik zou er bijna één voor kopen en upgraden vanaf een MSI 3080 (die ook al best stil is) mja ik game niet meer zoveel op de pc dus het is relatief makkelijk om te wachten
Igorslab: Even more GeForce RTX 4080 with a factory defect – The thermal paste drama continues unabated
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Beleggers keken al weken reikhalzend uit naar de kwartaalresultaten die Nvidia woensdagavond, na het sluiten van de Amerikaanse beurzen, zou presenteren. En de Amerikaanse chipmaker, die met zijn krachtige AI-chips de hofleverancier is van iedereen die iets betekent in de AI-revolutie, heeft niet teleurgesteld. Het bedrijf zag de afgelopen drie maanden zijn omzet opnieuw meer dan verdubbelen tegenover dezelfde periode vorig jaar (+122 procent), tot 30 miljard dollar. Het doet daarmee beter dan analisten gemiddeld hadden voorspeld (28,7 miljard dollar), en de resultaten tonen ook dat er nog steeds miljarden in artificiële intelligentie worden geïnvesteerd.
Ook voor het huidige kwartaal verwacht Nvidia dat zijn omzet verder zal stijgen, tot 32,5 miljard dollar. Dat is beter dan wat analisten gemiddeld hebben voorspeld, maar blijft weliswaar onder de meest optimistische verwachtingen. Sommige beleggers zien dat als een teken aan de wand dat het toppunt van de AI-gekte misschien voorbij is. En onmiddellijk na de bekendmaking van de resultaten zakte het aandeel in de handel na beurs.
De koers van Nvidia is dat jaar al met bijna 160 procent gestegen, en het is ondertussen na Apple het meest waardevolle beursgenoteerde bedrijf ter wereld. Maar de afgelopen maand viel de koers terug na onder meer berichten over productieproblemen van de Blackwell-chip, het nieuwst vlaggenschip van Nvidia en de meest krachtige AI-chip tot nog toe. Nvidia-ceo Jensen Huang probeerde beleggers gerust te stellen: "De verwachtingen voor Blackwell zijn ongelooflijk", zei hij. "Generatieve AI zal een revolutie in elke industrie ontketenen." Zijn cfo voegde eraan toe dat de nieuwe chip al vanaf het vierde kwartaal "miljarden" zal opbrengen.
Korte samenvatting lijkt als volgt te zijn:
-De connector is en blijft bagger.
-Er is gewoon geen fatsoenlijke goede standaard en geen validatie van wat er gespecificeerd is.
-Er is analyse uitgevoerd op de CableMod adapters door een onafhankelijk laboratorium.
Toestemming nodig voor bekijken van YouTube
Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.
Bekijk op YouTubeNever argue with an idiot. He will drag you down to his own level and beat you with experience.
Affected driver versions and recommended updates:
To minimize the risk, NVIDIA has provided updated driver versions that close the vulnerabilities. The recommended versions vary depending on the operating system and GPU model.
Windows users using GeForce, RTX, Quadro or NVS GPUs should update to versions 566.03, 553.24 or 538.95.
Versions 553.24 and 538.95 are intended for NVIDIA Tesla GPUs.
Linux users should install versions 565.57.01, 550.127.05 or 535.216.01, depending on the GPU model, to ensure that the gaps are closed.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Was wel fijn geweest als 566.03 goed zou werken op beide PCs hier, voor het eerst in bijna 8 jaar zoveel ellende met een Nvidia driver meegemaakt (in mijn geval BSODs ook na DDU, in het geval van mijn partner game crashes en iCue bug. Games kon ik niet testen op mijn PC door BSODs en iCue issue had mijn PC niet omdat ik geen Corsair spul gebruik)Help!!!! schreef op dinsdag 5 november 2024 @ 08:20:
Urgent security warning: NVIDIA urges GeForce users to update drivers – Eight critical vulnerabilities discovered
Affected driver versions and recommended updates:
To minimize the risk, NVIDIA has provided updated driver versions that close the vulnerabilities. The recommended versions vary depending on the operating system and GPU model.
Windows users using GeForce, RTX, Quadro or NVS GPUs should update to versions 566.03, 553.24 or 538.95.
Versions 553.24 and 538.95 are intended for NVIDIA Tesla GPUs.
Linux users should install versions 565.57.01, 550.127.05 or 535.216.01, depending on the GPU model, to ensure that the gaps are closed.
Rollback gedaan, en hopen dat beide PCs niet geinfect raken.
Bevat de meeste dingen die NVIDIA GeForce Experience en NVIDIA Control Panel hebben. Alleen één setting kon ik niet vinden, handmatig resolutie en refresh rate van je monitor aanpassen. Daarom hou ik voorlopig nog NVIDIA Control Panel.
De nVidia App installeert toch gewoon standaard ook de normale driver en daarmee het control panel?
Of bedoel je dat je de App dus voorlopig niet gaat gebruiken?
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Zo ontzettend jammer, omdat ik echt veel gebruik heb gemaakt van Gamestream i.c.m. mijn LG C1 en Moonlight. Nu is dat dus niet meer mogelijk, mits ik een rollback uitvoer naar oudere drivers (en daarmee optimalisaties voor toekomstige games misloop).
Had graag gezien dat Nvidia voor een open source-oplossing had gekozen, maar tevergeefs. Nu maar eens kijken of het omslachtige Sunshine iets is - kost wel (veel) meer werk om op te zetten i.t.t. Gamestream + Moonlight ...
Die settings lijken inderdaad niet vanaf de Nvidia App te benaderen. Wat mij verder opviel is dat bij een 'clean install' de settings voor resolutie, refresh rate en bitrate, bewaard waren gebleven. Normaal moet ik altijd alles opnieuw instellen, dat ging nu een stuk vlotter.NeverSettle schreef op dinsdag 12 november 2024 @ 15:28:
Bevat de meeste dingen die NVIDIA GeForce Experience en NVIDIA Control Panel hebben. Alleen één setting kon ik niet vinden, handmatig resolutie en refresh rate van je monitor aanpassen. Daarom hou ik voorlopig nog NVIDIA Control Panel.
566.14 lijkt tot dusver in orde, geen problemen aan mijn kant die ik met de voorgaande versie wel had.Mizgala28 schreef op dinsdag 5 november 2024 @ 15:29:
[...]
Was wel fijn geweest als 566.03 goed zou werken op beide PCs hier, voor het eerst in bijna 8 jaar zoveel ellende met een Nvidia driver meegemaakt (in mijn geval BSODs ook na DDU, in het geval van mijn partner game crashes en iCue bug. Games kon ik niet testen op mijn PC door BSODs en iCue issue had mijn PC niet omdat ik geen Corsair spul gebruik)
Rollback gedaan, en hopen dat beide PCs niet geinfect raken.
[ Voor 33% gewijzigd door Dhrax op 13-11-2024 10:58 ]
Hier nog steeds BSODs, maar ik weet inmiddels waarom.Dhrax schreef op woensdag 13 november 2024 @ 10:57:
[...]
Die settings lijken inderdaad niet vanaf de Nvidia App te benaderen. Wat mij verder opviel is dat bij een 'clean install' de settings voor resolutie, refresh rate en bitrate, bewaard waren gebleven. Normaal moet ik altijd alles opnieuw instellen, dat ging nu een stuk vlotter.
[...]
566.14 lijkt tot dusver in orde, geen problemen aan mijn kant die ik met de voorgaande versie wel had.
G-Sync was de oorzaak, dus 566,14 is ook geen optie voor mij tenzij ik G-Sync uit laat.
wat ik liever niet doe, mijn vorige 2070 Super had non stop problemen met G-Sync op mijn LG, toen ik een 4070 Ti vorig jaar had gekocht was dat probleem weg, en nu zou het weer een probleem wezen als ik deze driver gebruik
iCue bug is wel opgelost zie ik, dus ik kijk wel hoe de games draaien op de PC van mijn partner met 566.14.
geen Gsync issues met 566.14 op de PC van mijn partner in ieder geval, maar die heeft een andere LG monitor dus misschien daarom
Ik heb ook nog niet alles gezien maar een paar dingen:
-Nvidia lijkt echt aardig rondom Jensen te draaien met hem in het midden die de beslissingen maakt.
-Nvidia is zoals mensen die dit al langer volgen, echt een executiemachine. Ze gaan niet wachten op een nieuwe feature als het een paar maanden vertraging oplevert. Nee, er gaat elke twee jaar een nieuwe generatie uitkomen ten koste van alles.
-Bij 3DFX lijkt het aardig misgegaan te zijn omdat ze de focus verloren en ook flinke problemen kregen met 2D graphics waar ze juist zo goed in 3D waren.
-Nadat Nvidia, 3DFX overnam, ging de integratie met Nvidia niet zo goed. Daarnaast had Nvidia ook gedoe met Microsoft, waardoor Microsoft ze niet de details voor DirectX 9c had gegeven. En toen kwam ATi met de 9700 Pro waar Nvidia gewoon geen antwoord op had. Daarop terugkijkende denken ze bij Nvidia dat ATi ze kapot had moeten en kunnen maken door gewoon de prijzen te verlagen. an ATi had een kleinere chip op een oudere node. Dat had Jensen namelijk gedaan als hij toen ATi had geleid.
Toestemming nodig voor bekijken van YouTube
Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.
Bekijk op YouTube[ Voor 4% gewijzigd door DaniëlWW2 op 17-12-2024 17:17 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ja, de nieuwste 566.36 drivers geven frametime problemen in diverse games.. Ik ben ook teruggegaan naar de vorige en geen problemen meer..JWFpeters schreef op dinsdag 17 december 2024 @ 22:11:
Geen idee of ik dat hier moet plaatsen maar jullie ook problemen met de laatste drivers? Framerate is goed maar voelt niet stabiel de games hebben haperingen niet extreem wel merkbaak. Nu versie terug gegaan en het lijkt weer goed.
Staat een artikel over op videocardz, schijnt iets met filter settings niet goed te zijn. Dit uitzetten lost het op.JWFpeters schreef op dinsdag 17 december 2024 @ 22:11:
Geen idee of ik dat hier moet plaatsen maar jullie ook problemen met de laatste drivers? Framerate is goed maar voelt niet stabiel de games hebben haperingen niet extreem wel merkbaak. Nu versie terug gegaan en het lijkt weer goed.
Staat dat standaard aan? Nooit iets mee gedaan naar mijn idee. Heb die hele overlay uit staan.meljor schreef op dinsdag 17 december 2024 @ 22:28:
[...]
Staat een artikel over op videocardz, schijnt iets met filter settings niet goed te zijn. Dit uitzetten lost het op.
[ Voor 4% gewijzigd door JWFpeters op 17-12-2024 22:54 ]
[ Voor 94% gewijzigd door br00ky op 18-12-2024 11:44 ]
Al geprobeerd? Schijnt aardig te kunnen schelen want is een bug. Staat standaard aan ja zonder dat je de overlay gebruikt.JWFpeters schreef op dinsdag 17 december 2024 @ 22:52:
[...]
Staat dat standaard aan? Nooit iets mee gedaan naar mijn idee. Heb die hele overlay uit staan.
Bedankt voor de tip!DaniëlWW2 schreef op dinsdag 17 december 2024 @ 17:17:toon volledige bericht
Er is blijkbaar een boek verschenen over hoe Nvidia werkt, met uiteindelijk ook medewerking vanuit het leiderschap van Nvdia van een tijd geleden als ook nu, inclusief de grote baas.
Ik heb ook nog niet alles gezien maar een paar dingen:
-Nvidia lijkt echt aardig rondom Jensen te draaien met hem in het midden die de beslissingen maakt.
-Nvidia is zoals mensen die dit al langer volgen, echt een executiemachine. Ze gaan niet wachten op een nieuwe feature als het een paar maanden vertraging oplevert. Nee, er gaat elke twee jaar een nieuwe generatie uitkomen ten koste van alles.
-Bij 3DFX lijkt het aardig misgegaan te zijn omdat ze de focus verloren en ook flinke problemen kregen met 2D graphics waar ze juist zo goed in 3D waren.
-Nadat Nvidia, 3DFX overnam, ging de integratie met Nvidia niet zo goed. Daarnaast had Nvidia ook gedoe met Microsoft, waardoor Microsoft ze niet de details voor DirectX 9c had gegeven. En toen kwam ATi met de 9700 Pro waar Nvidia gewoon geen antwoord op had. Daarop terugkijkende denken ze bij Nvidia dat ATi ze kapot had moeten en kunnen maken door gewoon de prijzen te verlagen. an ATi had een kleinere chip op een oudere node. Dat had Jensen namelijk gedaan als hij toen ATi had geleid.
[YouTube: Interview: Tae Kim, Author of the Nvidia Way]
:strip_exif()/f/image/AcBsRPwcvsGljZIWxOZf1Y61.jpg?f=fotoalbum_large)
Ben het ook aan het lezen. Die podcast is trouwens eveneens leuk en interessant om te luisteren.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
What we've all been waiting for, might just have appeared and what we're talking about is of course the pricing of NVIDIA's upcoming graphics cards. @wxnod has posted a single screenshot on X/Twitter of what could be the MSRP of the RTX 5090 and RTX 5080 in China. The MSRP of the RTX 4080 was 9,499 RMB and the RTX 5080 appears to be not that much higher, at 9,999 RMB, but this still equates to about US$1,370, although do note that there's 13 percent sales tax/VAT in China.
Now as for the RTX 5090, things won't be as rosy. The RTX 4090 had an MSRP of 12,999 RMB in China and the RTX 5090 comes in at an insane 18,999 RMB or US$2,600. That's a price hike of a not insignificant 46 percent over the RTX 4090 and this might make it the most expensive consumer graphics card ever released. We'd suggest taking these prices with a helping of NaCl just to be on the safe side. The cards are expected to be available some time in January according to the screenshot.
Relatief netjes van die 5080 maar die 5090, gewoon omdat het kan zullen we maar zeggen zekerXWB schreef op zondag 29 december 2024 @ 14:06:
Hier is alvast een voorproefje van de RTX 50 prijzen:
[...]
7800X3D | B650E-F | DDR5-6000C30 64GB | RTX4070Ti | 990PRO 2TB
T.o.v. de idiote **90 prijzen is natuurlijk alles relatief netjes.. Meer dan € 1000,- voor een Nvidia **80 serie videokaart blijf ik teveel vinden.. Ik moet mensen er aan blijven herinneren dat ik mijn RTX 3080 eind 2020 gekocht heb voor € 749,-.. Slechts 4 jaar geleden, toen de wereld nog "normaal" was.. Het is echt onzin dat die bij de 40-serie opeens zo enorm veel duurder moest zijn.. Maar helaas was en is de marktsituatie nu zo geworden dat Nvidia amper tot geen concurrentie meer heeft in het highend segment, dat AMD z'n prijzen ook flink verhoogd heeft, en dat de crypto en Covid19 periodes ze geleerd hebben dat er genoeg mensen zijn die idiiote bedragen over hebben voor hun videokaarten.. En helaas is er na crypto en Covid19 nu weer iets nieuws wat de PC gaming videokaart markt totaal ondermijnt, namelijk de vraag naar AI data chips.. Nvidia verdient daar nu zo enorm veel geld mee dat de GeForce gaming afdeling bijna compleet irrelevant voor ze is geworden (financieel gezien).. In het kort ze kunnen vragen wat ze willen, je koopt het of je koopt het niet, het zal Nvidia infeite worst wezen als ze wat minder GeForce chips verkopen.. Ik zal er helaas ook in mee moeten als ik een vervanger van mijn 3080 wil kopen, tenzij AMD of Intel opeens onverwacht met wat beters komen.. Ik was van plan begin 2025 weer te upgraden, maar we wachten eerst wel af wat er allemaal op de markt komt.. Als de 5080 duidelijk sneller is dan de 4090 dan heb ik er misschien ook wel 1200-1300 euro voor over, maar vrees dat het hooguit dezelfde prestaties zullen worden, maar dan dus voor een paar honderd euro minder als wat de 4090 kostte adviesprijs.. Dat moeten we dan zogenaamd als vooruitgang zien.. Over de 5090 zullen we het voorlopig maar even helemaal niet hebben, dat is volgens Nvidia zogenaamd een videokaart voor professioneel gebruik (wat dat ook mogen zijn?!?), met vast ook een heel profesionele prijs.. Maar nog niet zo professioneel als wat ze voor die AI datacenter chips durven vragen.. Waarom laat die markt zich zo graag oplichten?!? De winstcijfers zijn echt absurd, wat dus betekent dat men veel teveel betaalt voor die producten..Vogels60 schreef op zondag 29 december 2024 @ 15:42:
[...]
Relatief netjes van die 5080 maar die 5090, gewoon omdat het kan zullen we maar zeggen zeker
Het klopt precies wat je zegt. Er is in dit segment geen concurrentie en nVidia zoekt gewoon precies de balans tussen wat mensen krijgen en waard vinden en proberen dit dan iedere keer te rekken. (Ook het Vram verhaal) Je zou denken dat hun marketing team uit psychologen bestaat maar van de andere kant kunnen ze ook gewoon zo "arrogant" zijn om dit te doen. Hobby mag geld kosten dus de mensen kopen wel, ze hebben niks te vrezen. Voor een bedrijf is dit natuurlijk de perfecte situatie.
Ik vind €1000,- ook wel echt de max voor een GPU voor in mijn PC en eigenlijk al belachelijk maar er is inflatie. Ik had tot afgelopen zomer nog een GTX1070Ti en nu een RTX4070Ti omdat er zo'n scherpe deal voorbij kwam anders had ik vermoedelijk toch een RTX4080s gekocht met een knoop in m'n maag...
nVidia heeft ons in hun greep...
7800X3D | B650E-F | DDR5-6000C30 64GB | RTX4070Ti | 990PRO 2TB
Dat ligt eraan hoeveel ze verwachten te verdienen door het kopen van die chips. De kostprijs is bij wel meer producten niet leidend in hoeveel het kost om te kopen.Inflatable schreef op maandag 30 december 2024 @ 08:13:
[...]
Waarom laat die markt zich zo graag oplichten?!? De winstcijfers zijn echt absurd, wat dus betekent dat men veel teveel betaalt voor die producten..
Amd bijv. had een Vram voordeel qua prijs met de xt en xtx. Wat doen ze nu? Ze komen met een 16gb kaart als max....
Intel zou snel moeten komen met de b770 maar die is uitgesteld (of gecanceld?). De 24gb kaart waar ze wel mee komen is voor de "pro's".
En van NV krijg je in ieder geval nog state of the art snel geheugen. Wat door Amd/intel gebruikt wordt is beduidend goedkoper en zou dus nog veel meer moeten zijn.
Ipv dat ze dus in het gat springen willen ze een deel van de AI taart. Wat ze dus niet gaat lukken omdat NV gewoon veel sterker is.
Het wordt tijd dat 3dfx terug komt:)
[ Voor 11% gewijzigd door meljor op 30-12-2024 09:28 ]
Niet alleen dat, de volgende AMD generatie (RDNA4) krijgt niet eens een high-end GPU. Alsof ze die markt maar opgeven.meljor schreef op maandag 30 december 2024 @ 09:24:
Amd bijv. had een Vram voordeel qua prijs met de xt en xtx. Wat doen ze nu? Ze komen met een 16gb kaart als max....
Volgens mij was die niet volgens verwachting en hebben ze de focus op rdna5 gelegd.XWB schreef op maandag 30 december 2024 @ 09:47:
[...]
Niet alleen dat, de volgende AMD generatie (RDNA4) krijgt niet eens een high-end GPU. Alsof ze die markt maar opgeven.
Dus hopelijk heeft de volgende generatie wel weer een high-end versie.
Maar het kan natuurlijk ook gewoon zijn dat ze het beste voor AI bewaren..... Tis shit maar daar is gewoon veel meer te verdienen aan nagenoeg hetzelfde materiaal.
Helaas komt er geen RDNA5 meer, AMD's volgende architectuur wordt UDNA en dat wordt een hybride tussen gaming en AI accelerator. Het lijkt er op dat gaming geen deticated focus meer krijgt.meljor schreef op maandag 30 december 2024 @ 10:11:
[...]
Volgens mij was die niet volgens verwachting en hebben ze de focus op rdna5 gelegd.
Dus hopelijk heeft de volgende generatie wel weer een high-end versie.
Ja klopt, maar dat is bij NV niet anders. Je kan er waarschijnlijk nog prima op gamen maar alle hardware optimalisaties gaan steeds meer richting AI.XWB schreef op maandag 30 december 2024 @ 10:15:
[...]
Helaas komt er geen RDNA5 meer, AMD's volgende architectuur wordt UDNA en dat wordt een hybride tussen gaming en AI accelerator. Het lijkt er op dat gaming geen deticated focus meer krijgt.
Nvidia heeft toch nog 2 verschilden architecturen, net zoals AMD nu CDNA & RDNA heeft? Ik heb nog niet gelezen dat Nvidia ook naar 1 architectuur overgaat dus voorlopig is het wel anders bij Nvidia. Het kan natuurlijk altijd dat ze dat ook van plan zijnmeljor schreef op maandag 30 december 2024 @ 12:21:
[...]
Ja klopt, maar dat is bij NV niet anders. Je kan er waarschijnlijk nog prima op gamen maar alle hardware optimalisaties gaan steeds meer richting AI.
[ Voor 5% gewijzigd door napata op 30-12-2024 15:17 ]
Ach, het is in ieder geval beter dan een 7900 XTX die de 4090 wel even zou verslaan.... wat dan eindelijk niet gebeurd en iedereen weer loopt te huilen. Verwachtingsmanagement.XWB schreef op maandag 30 december 2024 @ 09:47:
[...]
Niet alleen dat, de volgende AMD generatie (RDNA4) krijgt niet eens een high-end GPU. Alsof ze die markt maar opgeven.
16GB is voor de komende 3-4 jaar dan ook nog wel genoeg denk ik.. Mijn huidige 3080 heeft maar 10GB en werkt ook nog steeds prima terwijl ik op best hoge resolutie speel (3840x1600).. Alleen met bepaalde games die HD textures packs en/of full pathtracing willen draaien (Indiana Jones game b.v.) loop ik nu tegen een VRAM limiet aan.. Die grens ligt nu bij 12GB dus dan heb je met 16GB nog wel wat marge..meljor schreef op maandag 30 december 2024 @ 09:24:
Het gekke is dat juist nu NV zo belachelijk duur is EN weinig Vram biedt je zou zeggen dat Amd/intel makkelijk in dat gat zou kunnen springen. NV verdient meer dan genoeg op andere vlakken en heeft het dus niet nodig, zeker low en midrange niet.
Amd bijv. had een Vram voordeel qua prijs met de xt en xtx. Wat doen ze nu? Ze komen met een 16gb kaart als max....
Intel zou snel moeten komen met de b770 maar die is uitgesteld (of gecanceld?). De 24gb kaart waar ze wel mee komen is voor de "pro's".
En van NV krijg je in ieder geval nog state of the art snel geheugen. Wat door Amd/intel gebruikt wordt is beduidend goedkoper en zou dus nog veel meer moeten zijn.
Ipv dat ze dus in het gat springen willen ze een deel van de AI taart. Wat ze dus niet gaat lukken omdat NV gewoon veel sterker is.
Het wordt tijd dat 3dfx terug komt:)
nieuws: Nvidia presenteert GeForce RTX 5090, RTX 5080, RTX 5070 Ti en RTX 5070
De uplift qua prijzen valt nog enigszins mee, maar het blijft een hoop geld.
Performance claims zijn vooralsnog gebaseerd op DLSS en RT resultaten, er is momenteel niet zoveel te zeggen over raster performance.
[ Voor 17% gewijzigd door XWB op 07-01-2025 09:47 ]
De DLSS 4 presentatie is hilarisch slecht, hun demo video is ofwel fake, ofwel AI gaat nu wel heel fout. Allerlei "details" verschijnen ineens met meer "AI", of zijn gewoon anders, zoals het zoutvaatje dat van zout naar peper gaat. De tafel heeft ineens een hoop meer krassen. Tegelijkertijd zijn alle ronde vormen ineens weer lekker hoekig (beker deksel rechts) en er is colour banding (mosterd fles). En 27 FPS zonder dit alles? Een 4090 doet toch echt meer dan dat.
Helaas zullen velen er wel weer mee weg lopen en kwijlen over de niet-gerenderde pixels en frames.
Vind je? De MSRP adviesprijs van de RTX4090 was vorig jaar nog verlaagd naar rond de €1835 op een gegeven moment. Dit zou dan een stijging van +29% betekenen voor de RTX5090. Launchprijs verschil is nog altijd +21%XWB schreef op dinsdag 7 januari 2025 @ 09:42:
En daar is de RTX 50 serie dan:
nieuws: Nvidia presenteert GeForce RTX 5090, RTX 5080, RTX 5070 Ti en RTX 5070
De uplift qua prijzen valt nog enigszins mee, maar het blijft een hoop geld.
Performance claims zijn vooralsnog gebaseerd op DLSS en RT resultaten, er is momenteel niet zoveel te zeggen over raster performance.

Persoonlijk had ik dit wel van Nvidia verwacht, maar vanuit consument perspectief valt de prijsstelling van de RTX5090 niet goed te praten. Het argument importtarief van Trump geld niet voor Europa (producten komen rechtstreeks uit China). Maar dat is denk ik ook wel te zien aan de prijsstelling van de rest van de line-up.
Na het conditioneren van het doelpubliek met RTX 4000 series prijzen valt het mee en daar heb je weer de prijsextrapolatie.XWB schreef op dinsdag 7 januari 2025 @ 09:42:
En daar is de RTX 50 serie dan:
nieuws: Nvidia presenteert GeForce RTX 5090, RTX 5080, RTX 5070 Ti en RTX 5070
De uplift qua prijzen valt nog enigszins mee, maar het blijft een hoop geld.
Performance claims zijn vooralsnog gebaseerd op DLSS en RT resultaten, er is momenteel niet zoveel te zeggen over raster performance.
RTX 5090 is een tientallen procenten krachtigere GPU en daarvoor betaal je ook tientallen procenten meer dan voor RTX 4090. De prijsstelling is dus de prijzen 5 jaren geleden maal de vooruitgang in performance.
Ze proberen nog altijd het idee dat je met elke nieuwe generatie krijg je tientallen procenten korting op de prijs voor dezelfde performance of je krijgt tientallen procenten meer performance voor dezelfde prijs eruit te kloppen.
Voor AMD betekent dit dat RDNA 4 wat lager geprijsd kan worden. Nvidia wilt niet dat de concurrentie te goede marges heeft.
NVIDIA Reflex 2 With New Frame Warp Technology Reduces Latency In Games By Up To 75%, Coming to THE FINALS and VALORANT
NVIDIA Reflex 2 is coming soon to THE FINALS and VALORANT, and will debut first on GeForce RTX 50 Series GPUs, with support added for other GeForce RTX GPUs in a future update.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
De toekomst is gewoon AI magie of sommige reactionaire gamers dat nu leuk vinden of niet.meljor schreef op maandag 30 december 2024 @ 09:24:
Het gekke is dat juist nu NV zo belachelijk duur is EN weinig Vram biedt je zou zeggen dat Amd/intel makkelijk in dat gat zou kunnen springen. NV verdient meer dan genoeg op andere vlakken en heeft het dus niet nodig, zeker low en midrange niet.
Amd bijv. had een Vram voordeel qua prijs met de xt en xtx. Wat doen ze nu? Ze komen met een 16gb kaart als max....
Intel zou snel moeten komen met de b770 maar die is uitgesteld (of gecanceld?). De 24gb kaart waar ze wel mee komen is voor de "pro's".
En van NV krijg je in ieder geval nog state of the art snel geheugen. Wat door Amd/intel gebruikt wordt is beduidend goedkoper en zou dus nog veel meer moeten zijn.
Ipv dat ze dus in het gat springen willen ze een deel van de AI taart. Wat ze dus niet gaat lukken omdat NV gewoon veel sterker is.
Het wordt tijd dat 3dfx terug komt:)
En Jensen is de magiër.
AMD loopt al jaren achter de feiten aan.
Oh ik was dus ook niet gek.Werelds schreef op dinsdag 7 januari 2025 @ 15:30:
Ik ga kapot van het lachen met deze aankondiging
De DLSS 4 presentatie is hilarisch slecht, hun demo video is ofwel fake, ofwel AI gaat nu wel heel fout. Allerlei "details" verschijnen ineens met meer "AI", of zijn gewoon anders, zoals het zoutvaatje dat van zout naar peper gaat. De tafel heeft ineens een hoop meer krassen. Tegelijkertijd zijn alle ronde vormen ineens weer lekker hoekig (beker deksel rechts) en er is colour banding (mosterd fles). En 27 FPS zonder dit alles? Een 4090 doet toch echt meer dan dat.
Helaas zullen velen er wel weer mee weg lopen en kwijlen over de niet-gerenderde pixels en frames.
Ik dacht bij de eerste twee keer kijken al, wacht eens, dat ziet er niet hetzelfde uit. Maar ik had niet echt de moeite genomen om daarna echt goed te kijken.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.