Gpu's op leeftijd.

Pagina: 1
Acties:

Onderwerpen


Acties:
  • 0 Henk 'm!

  • kunia5
  • Registratie: Maart 2016
  • Laatst online: 08-09 20:09
Beste mede tweakers,

In mijn zoektocht naar kennis kwam ik weer wat leuks tegen.
Ik heb sinds 2 weken geleden een gtx 295 dual gpu in handen gekregen.
Ondanks dat alles er goed uitzag was hij instabiel en verloor hij output naar de monitor na ongeveer 20 seconden max load (heaven benchmark).
Dus ben ik op onderzoek gegaan eerste wat ik gedaan heb is de kaart schoonmaken en termalpaste+termal pads te vervangen.
Hierna was de temperatuur een stuk beter van 88 naar 64 dus hardstikke toppie maar hij bleef extreem unstable.
hier ben ik ongeveer 1 week aan het klieren geweest voordat ik dacht "misschien krijgt hij niet genoeg voltage en blijft daarom unstable vanwege ouderdom"
Na een kleine verhoging merkte ik dat hij langer actief bleef voordat hij crashte dit gaf mij hoop dat ik hem weer werkend kon krijgen en ja hoor na 2 uur vechten met voltages heb ik hem stabiel gekregen! 8)
2 dagen non stop op heaven benchmark gedraait heb ik aangenomen dat hij stabiel is.

Nu heb ik 3 vragen en bespreek punten.
1
Zijn er meer mensen die hier last van hebben en zo ja wat zijn jullie ervaringen ermee?
2
Als dit door ouderdom komt is er dan ook een manier om het te fixen?
3
En waardoor komt dit nou precies als in wat is de technische reden ervoor?

Acties:
  • +1 Henk 'm!

  • -36-
  • Registratie: Januari 2009
  • Laatst online: 09:07

-36-

Trust me. I'm an amateur

GPU's zijn fabrieks af vaak behoorlijk strak tegen hun max geklokt, door degradatie van de componenten oa door temperatuursverschillen kan dat voor instabiliteit zorgen. Als je geluk hebt krijg je de kaart weer stabiel(er) door wat te onderklokken. Of reflowen in de oven als je avontuurlijk bent aangelegd, alhoewel dat in de meeste gevallen slechts een tijdelijke fiks is. Zie ook YouTube: Reballing flip chip GPUs is BULLSHIT - the truth about dead laptop G... voor meer uitleg. Oude ddr3 blijft naar mijn ervaring vaak wel stabiel.

Acties:
  • +2 Henk 'm!

  • nelizmastr
  • Registratie: Maart 2010
  • Laatst online: 15:34

nelizmastr

Goed wies kapot

De GTX295 is een bijzonder beestje. Tenzij je een 650W voeding hebt van zeer goede kwaliteit of beter gaat-ie maar moeilijk stabiel lopen. Die dingen trekken als een malle aan je 12V rails.

I reject your reality and substitute my own


Acties:
  • 0 Henk 'm!

  • kunia5
  • Registratie: Maart 2016
  • Laatst online: 08-09 20:09
-36- schreef op vrijdag 21 december 2018 @ 09:39:
GPU's zijn fabrieks af vaak behoorlijk strak tegen hun max geklokt, door degradatie van de componenten oa door temperatuursverschillen kan dat voor instabiliteit zorgen. Als je geluk hebt krijg je de kaart weer stabiel(er) door wat te onderklokken. Of reflowen in de oven als je avontuurlijk bent aangelegd, alhoewel dat in de meeste gevallen slechts een tijdelijke fiks is. Zie ook YouTube: Reballing flip chip GPUs is BULLSHIT - the truth about dead laptop G... voor meer uitleg. Oude ddr3 blijft naar mijn ervaring vaak wel stabiel.
Dus als ik -36- jou zo hoor zou reflowen maar tijdelijk werken?
Is een permanente fix mogelijk?

En ja klopt nelizmastr hij sipt niet stroom hij trekt direct de kraan open en zet zijn mond eronder.
Maar daar heb ik ook een goeie voeding voor ;)
Maak je maar geen zorgen om het milieu ik ga hem niet permanent gebruiken puur leer gierig :D

[ Voor 69% gewijzigd door kunia5 op 21-12-2018 10:20 ]


Acties:
  • +3 Henk 'm!

  • Nemesizz
  • Registratie: September 2004
  • Laatst online: 13:01

Nemesizz

Untouchable

-36- schreef op vrijdag 21 december 2018 @ 09:39:
GPU's zijn fabrieks af vaak behoorlijk strak tegen hun max geklokt, door degradatie van de componenten oa door temperatuursverschillen kan dat voor instabiliteit zorgen. Als je geluk hebt krijg je de kaart weer stabiel(er) door wat te onderklokken. Of reflowen in de oven als je avontuurlijk bent aangelegd, alhoewel dat in de meeste gevallen slechts een tijdelijke fiks is. Zie ook YouTube: Reballing flip chip GPUs is BULLSHIT - the truth about dead laptop G... voor meer uitleg. Oude ddr3 blijft naar mijn ervaring vaak wel stabiel.
Heb dat filmpje van die Louis ook gezien, maar neem het niet al te serieus. Hij kan knap dingen fixen dat kan ie zeker, maar hij begint z'n verhaal al met 'ingebouwde timers' dat apparaten kapot gaan en dergelijke.... hoe kun je dat nog serieus nemen?

Ook meerdere mensen in comments geven al aan dat z'n verhaal niet klopt, en m'n eigen ervaring met reflowen (wat een tijdelijke oplossing is). Heb inderdaad wel eens (wat Louis aangeeft) op 120ºC geprobeerd en werkte niet, volgens hem zou dat wel werken als het de die is die soldeerbreukjes heeft.
Ding moest echt 200+ en bij sommige chips kon je ook daadwerkelijk de breukjes zien (BGA balletjes aan de rand van de chip). Daarnaast werkt reflow ook met andere apparaten/componenten die helemaal niet zo'n die hebben zoals een GPU. Het was een specifieke serie van nVidia (de 8000 en de rebrands daarvan) die het probleem hadden waar de die het probleem was (wat hij ongeveer aangeeft in de video), de meeste andere GPU's (inclusief Radeons) is het wel degelijk de BGA balls onder de chip die loslaten.

Heeft te maken met heatcycles (geen ingebouwde timer... 8)7 ), waar vooral laptops en gameconsoles veel erger mee te maken hebben. Die apparaten hebben vaak gebrekkige koeling (chip met veel warmte, in een krappe behuizing) waardoor die constant heel heet worden, maar ook regelmatig hard afkoelen (worden vaak uitgezet, terwijl mensen een PC vaak toch gewoon aan laten staan). Door die heatcycles gaat de boel uiteindelijk kapot.

Reflowen is een tijdelijke oplossing, want hoe dan ook gaat het ding weer kapot. En in het geval van een oven (wat ik ook deed) gaan uiteindelijk dingen zoals je caps ook kapot (die zijn vaak rated voor x aantal uur bij 105ºC, en dan stop je ze in een oven van 200+). Maar reflow is een mooi lapmiddel om het apparaat even weer in leven te krijgen om te wachten op een vervanger (PC videokaart / laptop) of om je data veilig te stellen (consoles).


Er word volgens mij iets te snel meteen naar zijn video gelinked en maar klakkeloos aangenomen dat ie gelijk heeft. Zijn zat mensen die het tegendeel bewijzen (alleen geen video van maken). Helemaal als die al begint met z'n ingebouwde timers.... right.

(opmerking: heb z'n naam misschien verkeerd geschreven, maar je snapt wel wie ik bedoel)

Acties:
  • 0 Henk 'm!

  • kunia5
  • Registratie: Maart 2016
  • Laatst online: 08-09 20:09
Nemesizz schreef op vrijdag 21 december 2018 @ 11:09:
[...]


Heb dat filmpje van die Louis ook gezien, maar neem het niet al te serieus. Hij kan knap dingen fixen dat kan ie zeker, maar hij begint z'n verhaal al met 'ingebouwde timers' dat apparaten kapot gaan en dergelijke.... hoe kun je dat nog serieus nemen?

Ook meerdere mensen in comments geven al aan dat z'n verhaal niet klopt, en m'n eigen ervaring met reflowen (wat een tijdelijke oplossing is). Heb inderdaad wel eens (wat Louis aangeeft) op 120ºC geprobeerd en werkte niet, volgens hem zou dat wel werken als het de die is die soldeerbreukjes heeft.
Ding moest echt 200+ en bij sommige chips kon je ook daadwerkelijk de breukjes zien (BGA balletjes aan de rand van de chip). Daarnaast werkt reflow ook met andere apparaten/componenten die helemaal niet zo'n die hebben zoals een GPU. Het was een specifieke serie van nVidia (de 8000 en de rebrands daarvan) die het probleem hadden waar de die het probleem was (wat hij ongeveer aangeeft in de video), de meeste andere GPU's (inclusief Radeons) is het wel degelijk de BGA balls onder de chip die loslaten.

Heeft te maken met heatcycles (geen ingebouwde timer... 8)7 ), waar vooral laptops en gameconsoles veel erger mee te maken hebben. Die apparaten hebben vaak gebrekkige koeling (chip met veel warmte, in een krappe behuizing) waardoor die constant heel heet worden, maar ook regelmatig hard afkoelen (worden vaak uitgezet, terwijl mensen een PC vaak toch gewoon aan laten staan). Door die heatcycles gaat de boel uiteindelijk kapot.

Reflowen is een tijdelijke oplossing, want hoe dan ook gaat het ding weer kapot. En in het geval van een oven (wat ik ook deed) gaan uiteindelijk dingen zoals je caps ook kapot (die zijn vaak rated voor x aantal uur bij 105ºC, en dan stop je ze in een oven van 200+). Maar reflow is een mooi lapmiddel om het apparaat even weer in leven te krijgen om te wachten op een vervanger (PC videokaart / laptop) of om je data veilig te stellen (consoles).


Er word volgens mij iets te snel meteen naar zijn video gelinked en maar klakkeloos aangenomen dat ie gelijk heeft. Zijn zat mensen die het tegendeel bewijzen (alleen geen video van maken). Helemaal als die al begint met z'n ingebouwde timers.... right.

(opmerking: heb z'n naam misschien verkeerd geschreven, maar je snapt wel wie ik bedoel)
Klinkt op zich logisch wat je zegt maar als je zegt dat in de oven steken tijdelijk is wat rossman ook zegt dan moet er dus ook een methode zijn om het weer te fixen.
Maar dat zal dan iets in de trend zijn van een nieuwe chip erop zetten?
Ik ben nog aardig nieuw in reballing en reflowing vandaar al mijn vragen :D

En soldeer wordt weer vloeibaar na het goed verhitten betekent dit dan niet dat het reflowen een goeie fix zou zijn of heeft dit deels te maken met dat de chip zelf ouderdom begint te tonen?

[ Voor 3% gewijzigd door kunia5 op 21-12-2018 11:22 ]


Acties:
  • +2 Henk 'm!

  • Nemesizz
  • Registratie: September 2004
  • Laatst online: 13:01

Nemesizz

Untouchable

De punten die je aangeeft bij je GTX 295 hebben eerder te maken met degradatie van de chip (die vanuit de fabriek waarschijnlijk al te ver overgeklokt was).

Bij de BGA problemen (breukjes) krijg je vaak last van artefacts (schiffers, blokjes, etc) in beeld. Beeld uitvallen na x aantal minuten zie je niet (althans, ik heb het nooit gezien, en heb meerdere GPU's met BGA problemen onder handen gehad). Als het BGA problemen zijn krijg je artefacts of de kaart doet gewoon meteen helemaal niks. Uitvallen na x aantal minuten kan dan wel, maar dan doet die het een boot later niet plots weer, dan is het ook gewoon over en uit.

Verschil tussen reflow en reball, zegt het eigenlijk al in de term zelf. Reflow verhit je de boel, hopen dat het soldeer zacht genoeg word zodat het weer contact maakt. Probleem is dat de kwaliteit van het soldeer al niet zo best meer is (je lees/hoort verschillende dingen erover, de samenstelling is niet goed, spul word broos, oxidatie, enz). Helemaal vloeibaar maken wil je eigenlijk ook niet, want dan vallen de onderdelen van de printplaat af :P

Reball, dan vervang je echt alle soldeer balls voor wat anders. Wat ik ervan begrijp word er vaak een ander soort soldeer gebruikt dan wat fabrikanten doen, dat iets beter tegen heatcycles kunnen maar niet zozeer aan de strenge ROHS standaard voldoet waar fabrikanten wel aan moeten voldoen.
Probleem is, dat vaak reparatieshops aankondigen van 'reball' terwijl ze eigenlijk een 'reflow' uitvoeren, waarna je dus vrij snel weer dezelfde problemen had. Op dat punt had Louis wel een beetje gelijk, hij legt het alleen een beetje krakkemikkig uit. En bij chips zoals de GeForce 8000 serie (en rebrands) helpt het inderdaad niet.


De Geforce 295 is ook nog een dual-gpu op 1 printplaat. Als een van de 2 GPU's kuren heeft, heeft dat ook invloed op de ander. Dus GPU 1 kan nog prima in orde zijn, GPU 2 niet, dan crashed de kaart alsnog omdat GPU 2 dusdanig instabiel is (door een te hoge overklok bijvoorbeeld).

Tegenwoordig bepalen kaarten zelf wel hoe hoog ze kunnen klokken zonder instabiel te worden (door bepaalde dingen in de gaten te houden, dingen zoals ; temperatuur, voltage, enz). Paar jaar terug (dus eigenlijk kaarten voordat het hele 'boost' verhaal kwam) werden gewoon hele series op een bepaalde snelheid gezet en verkocht. De ene chip is de ander niet, dus de een kon het prima aan, de ander geeft problemen na verloop van tijd, sommige meteen al maar die worden vaak meteen RMA gestuurd (en hoor je verder weinig van). Een van de redenen waarom ik nooit fan was van 'factory-oc' kaarten.

Acties:
  • 0 Henk 'm!

  • kunia5
  • Registratie: Maart 2016
  • Laatst online: 08-09 20:09
Nemesizz schreef op vrijdag 21 december 2018 @ 11:39:
De punten die je aangeeft bij je GTX 295 hebben eerder te maken met degradatie van de chip (die vanuit de fabriek waarschijnlijk al te ver overgeklokt was).

Bij de BGA problemen (breukjes) krijg je vaak last van artefacts (schiffers, blokjes, etc) in beeld. Beeld uitvallen na x aantal minuten zie je niet (althans, ik heb het nooit gezien, en heb meerdere GPU's met BGA problemen onder handen gehad). Als het BGA problemen zijn krijg je artefacts of de kaart doet gewoon meteen helemaal niks. Uitvallen na x aantal minuten kan dan wel, maar dan doet die het een boot later niet plots weer, dan is het ook gewoon over en uit.

Verschil tussen reflow en reball, zegt het eigenlijk al in de term zelf. Reflow verhit je de boel, hopen dat het soldeer zacht genoeg word zodat het weer contact maakt. Probleem is dat de kwaliteit van het soldeer al niet zo best meer is (je lees/hoort verschillende dingen erover, de samenstelling is niet goed, spul word broos, oxidatie, enz). Helemaal vloeibaar maken wil je eigenlijk ook niet, want dan vallen de onderdelen van de printplaat af :P

Reball, dan vervang je echt alle soldeer balls voor wat anders. Wat ik ervan begrijp word er vaak een ander soort soldeer gebruikt dan wat fabrikanten doen, dat iets beter tegen heatcycles kunnen maar niet zozeer aan de strenge ROHS standaard voldoet waar fabrikanten wel aan moeten voldoen.
Probleem is, dat vaak reparatieshops aankondigen van 'reball' terwijl ze eigenlijk een 'reflow' uitvoeren, waarna je dus vrij snel weer dezelfde problemen had. Op dat punt had Louis wel een beetje gelijk, hij legt het alleen een beetje krakkemikkig uit. En bij chips zoals de GeForce 8000 serie (en rebrands) helpt het inderdaad niet.


De Geforce 295 is ook nog een dual-gpu op 1 printplaat. Als een van de 2 GPU's kuren heeft, heeft dat ook invloed op de ander. Dus GPU 1 kan nog prima in orde zijn, GPU 2 niet, dan crashed de kaart alsnog omdat GPU 2 dusdanig instabiel is (door een te hoge overklok bijvoorbeeld).

Tegenwoordig bepalen kaarten zelf wel hoe hoog ze kunnen klokken zonder instabiel te worden (door bepaalde dingen in de gaten te houden, dingen zoals ; temperatuur, voltage, enz). Paar jaar terug (dus eigenlijk kaarten voordat het hele 'boost' verhaal kwam) werden gewoon hele series op een bepaalde snelheid gezet en verkocht. De ene chip is de ander niet, dus de een kon het prima aan, de ander geeft problemen na verloop van tijd, sommige meteen al maar die worden vaak meteen RMA gestuurd (en hoor je verder weinig van). Een van de redenen waarom ik nooit fan was van 'factory-oc' kaarten.
Interessant dit.
Dus in theorie zou het voltage verhoging komen doordat de gpu (1 van de 2 of beide) begint af te "breken"
Stel ik zou dus de kapotte chip vervangen zou het probleem verholpen moeten worden?
Kan je zelf ook achterhalen welke van de 2 problemen geeft?
En is reballing iets waar je een speciale tool ofzo voor nodig bent of is een soldeer ijzer genoeg?
En kan mijn verhoging in voltage kwaad of maakt dat niet uit omdat de chip nu meer nodig is?

Acties:
  • +1 Henk 'm!

  • Nemesizz
  • Registratie: September 2004
  • Laatst online: 13:01

Nemesizz

Untouchable

Om goed te reballen heb je echt wel de juiste apparatuur nodig en is niet iets wat je 'even' met een soldeerbout doet.

Voltage verhogen helpt tijdelijk, maar zorgt ook dat je chip sneller slijt, waardoor je de voltage weer moet verhogen enz. Uiteindelijk werkt dat gewoon niet meer en is je chip kapot.

Beter kun je de chip underclocken en hopen dat die stabiel blijft op het originele voltage ipv de huidige clocks behouden en telkens voltage verhogen.

Ik zou het eerst gewoon zo simpel mogelijk houden. Eerst de GPU (beide) underclocken en voltage gewoon stock houden (niet verhogen). Kijken of de boel dan stabiel(er) blijft.

Dingen zoals reball moet je niet meer aan denken bij een oude chip/kaart als dat. Verspilde moeite als je de apparatuur zelf niet in huis hebt. Reflow ook alleen bij microbreukjes, niet mee gaan klooien als je dat probleem niet hebt (lijkt er niet op).

Bij veel van die factory-oc kaarten verdwijnen de problemen als sneeuw voor de zon door simpel de clockspeeds te verlagen (GPU en vaak geheugen ook wat).

Ding kan natuurlijk ook gewoon 'op' zijn, gezien de leeftijd van zo'n kaart ook niet teveel moeite meer insteken.

Het uitzoeken of een van de 2 GPU's problemen geeft is wat lastiger (moet bekennen, zelf niet zo'n dual-gpu kaart gehad). Proberen softwarematig 1 vd 2 uitschakelen (moet volgens mij kunnen) en kijken of het beter werkt.

Acties:
  • 0 Henk 'm!

  • kunia5
  • Registratie: Maart 2016
  • Laatst online: 08-09 20:09
Ah okay dan is reballen dus buiten mijn bereik en reflowen niet nodig omdat ik die problemen niet ondervindt.
Zou ik de gpu chip kunnen laten vervangen of is dat nutteloos?
En zou de vraag voor meer voltage ook ergens anders van kunnen komen of is dit puur de chip die op raakt?
Wil nog genoeg leren van deze kaart voordat hij op de plank eindigt als collector's item :D

Ik zal wat drivers gaan testen en kijken of ik kan achterhalen welke gpu het probleem is.
Heb jij al eerder zoiets als dit meegemaakt?

Acties:
  • +2 Henk 'm!

  • Nemesizz
  • Registratie: September 2004
  • Laatst online: 13:01

Nemesizz

Untouchable

kunia5 schreef op vrijdag 21 december 2018 @ 12:54:
Ah okay dan is reballen dus buiten mijn bereik en reflowen niet nodig omdat ik die problemen niet ondervindt.
Zou ik de gpu chip kunnen laten vervangen of is dat nutteloos?
En zou de vraag voor meer voltage ook ergens anders van kunnen komen of is dit puur de chip die op raakt?
Wil nog genoeg leren van deze kaart voordat hij op de plank eindigt als collector's item :D

Ik zal wat drivers gaan testen en kijken of ik kan achterhalen welke gpu het probleem is.
Heb jij al eerder zoiets als dit meegemaakt?
De chip vervangen is nutteloos. Want dan moet je dus ook eigenlijk reballen (chip eraf, andere er weer op, en dan moet je alle balls vervangen). Bovendien, kun je niet even een losse GPU bestellen (zelfde GPU als een GeForce GTX 275 blijkbaar, en die zijn al vele jaren uit productie en ook niet los te bestellen).
Als je zoiets zou laten doen ben je een veelvoud aan euro's kwijt dan wat zo'n kaart waard is (praktisch niks, misschien de ruwe materialen maar zelfs dat is niet veel).

Meer voltage nodig op de chip, is puur de chip. Niet een ander component.
Als het bijvoorbeeld de VRM's (stroomvoorziening van de kaart kort gezegd) was zou voltage verhoging niet werken, zou de kaart denk ik zelfs eerder crashen. Zou het bijvoorbeeld het VRAM (videogeheugen) zijn, zou voltage verhogen van de GPU zelf niet helpen. Dus voltage verhoging op de GPU is puur de GPU die aan het slijten is.

Verschillende drivers testen kan, maar je moet rekening houden dat de GT200 serie al geruime tijd niet meer support word, en ook geen nieuwe drivers van zijn.

Zelf gelukkig weinig zulke problemen gehad, omdat ik die factory-OC kaarten zo veel mogelijk vermeed. Dan maar een paar FPS minder, had liever een kaart die langdurig stabiel bleef.
Nu zit er wel verschil in hoeverre de factory-oc was, soms was het maar 10Mhz ofzo (maar toch groot op de doos Factory Overclocked! :+ ), dat ging nog wel, maar er zijn ook kaarten waar klakkeloos overal 50, 100, of meer Mhz opgedrukt werd terwijl lang niet alle chips dat even goed aankonden, dat zijn de kaarten waar ik wel uit de buurt bleef (en 50 of 100Mhz meer maakte bij die kaarten meer uit dan nu 100 Mhz meer of minder).

*EDIT*
Je zou even kunnen checken op hoeveel Mhz je GPU nu draait. Ding hoort schijnbaar iets van 576Mhz te hebben (in het geval van de 295, slechts een enkele GPU, bij de 275 kon op 633Mhz draaien)

[ Voor 4% gewijzigd door Nemesizz op 21-12-2018 13:43 ]


Acties:
  • +1 Henk 'm!

  • -36-
  • Registratie: Januari 2009
  • Laatst online: 09:07

-36-

Trust me. I'm an amateur

Nemesizz schreef op vrijdag 21 december 2018 @ 11:09:
[...]


Heb dat filmpje van die Louis ook gezien, maar neem het niet al te serieus. Hij kan knap dingen fixen dat kan ie zeker, maar hij begint z'n verhaal al met 'ingebouwde timers' dat apparaten kapot gaan en dergelijke.... hoe kun je dat nog serieus nemen?

Ook meerdere mensen in comments geven al aan dat z'n verhaal niet klopt, en m'n eigen ervaring met reflowen (wat een tijdelijke oplossing is). Heb inderdaad wel eens (wat Louis aangeeft) op 120ºC geprobeerd en werkte niet, volgens hem zou dat wel werken als het de die is die soldeerbreukjes heeft.
Ding moest echt 200+ en bij sommige chips kon je ook daadwerkelijk de breukjes zien (BGA balletjes aan de rand van de chip). Daarnaast werkt reflow ook met andere apparaten/componenten die helemaal niet zo'n die hebben zoals een GPU. Het was een specifieke serie van nVidia (de 8000 en de rebrands daarvan) die het probleem hadden waar de die het probleem was (wat hij ongeveer aangeeft in de video), de meeste andere GPU's (inclusief Radeons) is het wel degelijk de BGA balls onder de chip die loslaten.

Heeft te maken met heatcycles (geen ingebouwde timer... 8)7 ), waar vooral laptops en gameconsoles veel erger mee te maken hebben. Die apparaten hebben vaak gebrekkige koeling (chip met veel warmte, in een krappe behuizing) waardoor die constant heel heet worden, maar ook regelmatig hard afkoelen (worden vaak uitgezet, terwijl mensen een PC vaak toch gewoon aan laten staan). Door die heatcycles gaat de boel uiteindelijk kapot.

Reflowen is een tijdelijke oplossing, want hoe dan ook gaat het ding weer kapot. En in het geval van een oven (wat ik ook deed) gaan uiteindelijk dingen zoals je caps ook kapot (die zijn vaak rated voor x aantal uur bij 105ºC, en dan stop je ze in een oven van 200+). Maar reflow is een mooi lapmiddel om het apparaat even weer in leven te krijgen om te wachten op een vervanger (PC videokaart / laptop) of om je data veilig te stellen (consoles).


Er word volgens mij iets te snel meteen naar zijn video gelinked en maar klakkeloos aangenomen dat ie gelijk heeft. Zijn zat mensen die het tegendeel bewijzen (alleen geen video van maken). Helemaal als die al begint met z'n ingebouwde timers.... right.

(opmerking: heb z'n naam misschien verkeerd geschreven, maar je snapt wel wie ik bedoel)
Ben het met je eens dat je niet alles wat hij zegt al te serieus moet nemen, zeker als hij dan in ene keer vanuit het niets weer een rant over vochtig toilet papier of iets dergelijk begint :+ En Apple komt er ook zelden goed vanaf. Maar als je dat in het achterhoofd houd heeft hij vaak toch best informatieve en inzichtelijke filmpjes over fiksen van electronica en apple spul op component niveau.

En klopt wat je zegt dat er geen timers in chips zit, maar je kan mij ook niet wijsmaken dat Apple en Nvidia niet heel uitvoerig getest hebben wat de verwachtte levensduur van een chip is. En dat het doel niet is om de chip oneindig mee te laten gaan maar het vooral belangrijk is dat deze minimaal de garantieperiode overleefd

Acties:
  • 0 Henk 'm!

  • kunia5
  • Registratie: Maart 2016
  • Laatst online: 08-09 20:09
Ik wist echt niet dat factory overclocked kaarten sneller slijten dan normale kaarten :O
Ging er altijd van uit dat ze dat deden omdat die kaarten er tegen konden.

Ging er ook wel van uit dat er geen nieuwe drivers voor zijn bedoelde meer oudere drivers proberen die misschien geen problemen geven.

Ik ga wel even dit weekend thuis kijken op welke mhz de core en memory draaien.

Acties:
  • 0 Henk 'm!

  • kunia5
  • Registratie: Maart 2016
  • Laatst online: 08-09 20:09
-36- schreef op vrijdag 21 december 2018 @ 13:55:
[...]


Ben het met je eens dat je niet alles wat hij zegt al te serieus moet nemen, zeker als hij dan in ene keer vanuit het niets weer een rant over vochtig toilet papier of iets dergelijk begint :+ En Apple komt er ook zelden goed vanaf. Maar als je dat in het achterhoofd houd heeft hij af en toe best informatieve filmpjes over fiksen van.

En net wat je zegt dat er geen timers in chips zit maar je kan mij ook niet wijsmaken dat Apple en Nvidia niet heel uitvoerig getest hebben wat de verwachtte levensduur van een chip is. En het doel niet is om de chip oneindig mee te laten gaan maar het vooral belangrijk is dat deze minimaal de garantieperiode overleefd
Was ook iets wat ik stiekem ook wel wist dat de meeste dingen ontworpen zijn om stuk te gaan niet een timer bevatten maar meer zoals jij zegt dat ze snel genoeg slijten dat na de garantie met genoeg liefde een paar jaar erbij en dan dood.
Maar Rossman heeft absoluut wel punten betreffende develepers dat die toch wel wat vieze dingen doen met levensduur van hardware.

Acties:
  • +2 Henk 'm!

Verwijderd

Nemesizz schreef op vrijdag 21 december 2018 @ 11:09:
[...]


Heb dat filmpje van die Louis ook gezien, maar neem het niet al te serieus. Hij kan knap dingen fixen dat kan ie zeker, maar hij begint z'n verhaal al met 'ingebouwde timers' dat apparaten kapot gaan en dergelijke.... hoe kun je dat nog serieus nemen?
offtopic:
Alvorens dit uit de context wordt gerukt door mensen die het niet hebben gezien, dit was metaforisch bedoeld. Hij heeft het over planned obsolescence en dat is zeker een belangrijk probleem in deze tijd. Vanuit het perspectief van de fabrikanten kan het interessanter zijn om een paar % minder te besteden, het net wat goedkoper te verkopen maar dat je na 50% of minder van de gebruiksduur in vergelijking met het net wat duurdere maar veel betere product het product al moet vervangen, dat principe. Een bekend voorbeeld is de wasmachine waarbij de verwachte levensduur >20 jaar in plaats van <10 jaar is als je een paar € meer besteedt aan bepaalde componenten. Je kan zo met gemak honderden voorbeelden geven. Goedkoop wat duurkoop is, pennywise and poundfoolish, stepping over dollars to pick up pennies. Dit is onpraktisch, het is duurder (alleen hebben klanten dat niet in de gaten bij de aankoop en daarom 'werkt' het) en het is onnodig belastend voor het milieu omdat je zoveel nieuw spul moet maken wat voorkomen had kunnen worden. Als je wat meer van LR zijn content hebt gezien dan weet je dat hij niet enkel voor zijn beroep Apple-spul repareert maar dat hij ook ideologische motieven heeft: het recht voor mensen om hun eigen spul te maken, niet het milieu nog sneller verpesten dan dat we al doen.

Dan komt er bij computers (inclusief smartphones, dat zijn immers ook computers als je het technisch bekijkt) ook nog eens het verhaal dat je met software planned obsolescence kan inbouwen. In welke mate je daarmee wegkomt hangt af van hoe merktrouw de gebruikers zijn en dus hoe inelastisch de prijs is. En in welke mate mensen toch al elke paar jaar hun telefoontje willen vervangen. Dat is natuurlijk geen timer maar je kan latere versies van het besturingssysteem en updates niet aanpassen aan oudere hardware.
Ik kan me vergissen, ik neem de trend waar dat mensen tegenwoordig graag langer hun telefoon willen blijven gebruiken omdat de hardware die erop zit goed genoeg is voor wat zij ermee willen doen. Een beetje hetzelfde verhaal als dat de eerste quadcore-CPU's van Intel met traag DDR3 RAM nog steeds prima volstaan voor 90-95% van de computer-gebruikers (browser, multimedia en lichte kantoorsoftware), zolang er een SSD in het systeem zit.

Wat betreft het technische verhaal (heet maken van de grafische kaart om het weer tijdelijk te laten werken), hier heeft hij voor zo ver ik het kan inschatten gelijk in. Linus en hij zijn vrienden geworden na deze video dus wat dat betreft is het allemaal leuk en aardig. Linus bezocht zijn winkel, ze gingen samen eten, ze kregen respect voor elkaar en later ging Louis Rossmann nog eens naar Canada op vakantie en bezocht hij Linus voor een filmpje waarin ze vervangende hardware in zijn defecte Apple computer stopten.



Dit heeft uiteraard niets met deze kaart te maken. Hij heeft een dual GPU die nogal veel van de voeding eist en veel mensen besteden te weinig aan hun voeding in vergelijking met de hardware die ze erop aansluiten. Dat is alles. :)
Veelzeggend is dat veel van die mensen die zo'n probleem melden dan wel wat specs geven maar meestal niet zeggen wat voor voeding ze hebben, of ze zeggen dat ze een XW voeding hebben. Als je een RX 570 en een 1600 gebruikt dan maakt het weinig uit welke voeding je gebruikt zolang het niet al te bont wordt (standaard beveiligingen ingebouwd) maar wanneer je een 9900k, Vega-kaart, dual GPU, tweede grafische kaart...kiest dan kan je beter maar inderdaad een zeer goede 650W voeding hebben.

[ Voor 31% gewijzigd door Verwijderd op 21-12-2018 20:23 ]


Acties:
  • 0 Henk 'm!

  • kunia5
  • Registratie: Maart 2016
  • Laatst online: 08-09 20:09
Verwijderd schreef op vrijdag 21 december 2018 @ 14:23:
[...]

offtopic:
Alvorens dit uit de context wordt gerukt door mensen die het niet hebben gezien, dit was metaforisch bedoeld. Hij heeft het over planned obsolescence en dat is zeker een belangrijk probleem in deze tijd. Vanuit het perspectief van de fabrikanten kan het interessanter zijn om een paar % minder te besteden, het net wat goedkoper te verkopen maar dat je na 50% of minder van de gebruiksduur in vergelijking met het net wat duurdere maar veel betere product het product al moet vervangen, dat principe. Een bekend voorbeeld is de wasmachine waarbij de verwachte levensduur >20 jaar in plaats van <10 jaar is als een paar € meer besteedt aan bepaalde componenten. Je kan zo met gemak honderden voorbeelden geven. Goedkoop wat duurkoop is, pennywise and poundfoolish, stepping over dollars to pick up pennies. Dit is onpraktisch, het is duurder (alleen hebben klanten dat niet in de gaten bij de aankoop en daarom 'werkt' het) en het is onnodig belastend voor het milieu omdat je zoveel nieuw spul moet maken wat voorkomen had kunnen worden. Als je wat meer van LR zijn content dan weet je dat hij niet enkel voor zijn beroep Apple-spul repareert maar dat hij ook ideologische motieven heeft: het recht voor mensen om hun eigen spul te maken, niet het milieu nog sneller verpesten dan dat we al doen.

Dan komt er bij computers (inclusief smartphones, dat zijn immers ook computers als je het technisch bekijkt) ook nog eens het verhaal dat je met software planned obsolescence kan inbouwen. In welke mate je daarmee wegkomt hangt af van hoe merktrouw de gebruikers zijn en dus hoe inelastisch de prijs is. En in welke mate mensen toch al elke paar jaar hun telefoontje willen vervangen. Dat is natuurlijk geen timer maar je kan latere versies van het besturingssysteem en updates niet aanpassen aan oudere hardware.
Ik kan me vergissen, ik neem de trend waar dat mensen tegenwoordig graag langer hun telefoon willen blijven gebruiken omdat de hardware die erop zit goed genoeg is voor wat zij ermee willen doen. Een beetje hetzelfde verhaal als dat de eerste quadcore-CPU's van Intel met traag DDR3 RAM nog steeds prima volstaan voor 90-95% van de computer-gebruikers (browser, multimedia en lichte kantoorsoftware), zolang er een SSD in het systeem zit.

Wat betreft het technische verhaal (heet maken van de grafische kaart om het weer tijdelijk te laten werken), hier heeft hij voor zo ver ik het kan inschatten gelijk in. Linus en hij zijn vrienden geworden na deze video dus wat dat betreft is het allemaal leuk en aardig. Linus bezocht zijn winkel, ze gingen samen eten, ze kregen respect voor elkaar en later ging Louis Rossmann nog eens naar Canada op vakantie en bezocht hij Linus voor een filmpje waarin ze vervangende hardware in zijn defecte Apple computer stopten.



Dit heeft uiteraard niets met deze kaart te maken. Hij heeft een dual GPU die nogal veel van de voeding eist en veel mensen besteden te weinig aan hun voeding in vergelijking met de hardware die ze erop aansluiten. Dat is alles. :)
Veelzeggend is dat veel van die mensen die zo'n probleem melden dan wel wat specs geven maar meestal niet zeggen wat voor voeding ze hebben, of ze zeggen dat ze een XW voeding hebben. Als je een RX 570 en een 1600 gebruikt dan maakt het weinig uit welke voeding je gebruikt zolang het niet al te bont wordt (standaard beveiligingen ingebouwd) maar wanneer je een 9900, Vega-kaart, dual GPU, tweede grafische kaart...kiest dan kan je beter maar inderdaad een zeer goede 650W voeding hebben.
Interesant stuk om te lezen weer wat erbij geleerd.
Om even te reageren op je voedings ding.
pricewatch: Corsair HX1000i
denk dat mijn 1000watter wel wat aankan en hij heeft ook nog garantie :D heb ook al even gekeken met mijn maat zijn 1080ti sli setup om te kijken of mijn voeding niet lekker in zijn vel zat maar werkte prima.
toch enorm bedankt voor dat stuk is toch wel interesant om te lezen _/-\o_
Mijn kennis is altijd wat beperkt geweest dus zulke input maak ik deze forum posts voor _/-\o_

Acties:
  • +1 Henk 'm!

  • Nemesizz
  • Registratie: September 2004
  • Laatst online: 13:01

Nemesizz

Untouchable

(misschien wat offtopic maar goed)

Dat er dingen zijn met 'planned obsolescence' zal ook wel, maar ik denk niet zo erg in de mate wat soms beweerd word. Soms zit er in een apparaat gewoon een designfout, wat je niet meteen te weten komt als je zo'n chip ontwerpt, een chip is een complex 'apparaat' waar soms de nodige dingen aan mis kunnen gaan.

Ook moeten fabrikanten aan bepaalde milieu eisen voldoen, zoals loodvrij soldeer. Je ziet ook dat veel apparaten na de overstap naar loodvrij soldeer behoorlijk kortere levensduur hadden. Dus ipv het milieu te sparen, gaan onderdelen nu alleen sneller kapot en moeten vervangen worden.

Ook dingen zoals auto's tegenwoordig. Allemaal van die kleine 1.0 en 1.2 motortjes, opgefokt met turbo's om er nog wat vermogen uit te persen om aan de moderne milieu eisen te voldoen. Maar die blokjes gaan vaak lang niet zo lang mee als de oudere grotere 'vervuilende' blokken. Dus ipv een motor die 20 jaar mee gaat, heb je nu blokjes die soms krap aan de 'lease periode' (zeg maar 150K kilometer) overleven en dan alweer vervangen moeten worden.

Dat er op sommige dingen bezuinigd word om zoveel mogelijk winst te maken zie ik ook wel. Metname moederborden heb ik weinig vertrouwen in, alles word gecompenseerd met een boel marketing en tegenwoordig led verlichting ('gaming!' 'militairy class' 'ultra durable' bla bla... en na 2 jaar kapot).
Maar soms word er ook wel behoorlijk overdreven met bepaalde dingen. Chips maken word gewoon steeds moeilijker (complexer), kosten voor R&D steeds hoger (kleinere chips maken word moeilijker), dus ook duurder. Maar word ook vaak afgeschilderd als hebberig door chipmakers omdat de chips steeds duurder worden (zo ook RTX chips).

Paar jaar terug kocht ik een leuke mid-range kaart voor €70,- (Radeon 1650 Pro), tegenwoordig heb je amper een instapkaart voor die prijs (zowel nVidia als AMD).

Over het algemeen hoeven ze bij videokaarten niet eens aan planned obsolescence te doen, want dat gebeurt vanzelf wel. Veel gamers houden een kaart niet eens tot die versleten is, maar vervangen zo'n ding alweer na... 1.5 a 2 jaar (ik sta soms versteld wat sommigen uitgeven per 2 jaar aan nieuwe hardware), puur om de nieuwste 'battlefield' of want dan ook op 'ultra' te kunnen draaien. Moderne titels draaien dus dan toch al niet meer geweldig op de oudere kaarten, waardoor men toch wel overstapt op een nieuwere, helemaal nu boven de 60 Hz schermen populair worden en resoluties van 1440P gangbaarder worden.

Acties:
  • +1 Henk 'm!

  • Azbest
  • Registratie: April 2000
  • Laatst online: 13-09 15:19
Nou voorruit mijn twee centjes er ook maar bij dan.
Er bestaat niet zoiets als 'planned obsolescence', wel een verwachte levensduur en slechte ontwerpkeuzes.

Apple is hierbij een goed voorbeeld van slechte ontwerpkeuzes, er is een goede reden waarom dingen een bepaald formaat hebben. Soms kan het gewoon niet kleiner, als je willens wetens toch buiten die grenzen gaat ontwerpen dan heb je het niet over 'planned obsolescence' maar een brak ontwerp.

Ik heb hier nog heel wat oude videokaarten draaien, 8800GTS, HD4870, GTX275, de reden dat deze nog allemaal goed zijn is omdat ik van al die videokaarten de koeling heb opgewaardeerd.

Vooral Nvidia zoekt de grens op qua koeling, en daarom gaan die vaak stuk. Ik heb eerder talloze moederborden vervangen vrijwel allemaal met Nvidia chipsets. Ze zetten doodleuk in hun datasheets dat hun chipsets tot 70 graden Celsius functioneren. Ja hoor, tuurlijk, Nvidia heeft silicium gezegend door engelen.

Kortom, als de fan naar gevoel te hard moet blazen, het te warm is om aan te raken, dan is dat ook zo! ;)

Acties:
  • 0 Henk 'm!

  • Nemesizz
  • Registratie: September 2004
  • Laatst online: 13:01

Nemesizz

Untouchable

@Azbest M'n eigen dooie nVidia kaarten gingen niet kapot doordat ze te heet werden, vaak zaten ze maar rond de 65ºC max wat voor een videokaart niet eens gek is. Doen m'n Radeons het slechter (leven nog wel) die gaan vrolijk richting de 80ºC (6870 vanmiddag net nieuwe koelpasta opgedaan, ging voorheen richting 89ºC onder load).

Wat ik voorheen wel deed, als ik de PC even niet gebruikte, zette ik em uit. Dat constant opwarmen, afkoelen, opwarmen, afkoelen is uiteindelijk hetgene wat m'n videokaarten (waarschijnlijk) de das om heeft gedaan. De 8800 uitgezonderd, daar zit een ontwerp fout in.
M'n vorige kaart , GTX 660Ti, heb ik de PC gewoon aangelaten ook als ik em even niet gebruik, en die kaart leeft nog steeds zonder problemen. Haalde dezelfde temperaturen als de vorige kaart (rond de 60 a 65ºC max), maar is nu... 5 of 6 jaar oud?

Heb 1 moederbord gehad met een nVidia chipset (650 Sli), en die konden inderdaad loeiheet worden. Zat geen sensor in, maar het (al overdreven grote) koelblok werd toch al richting 80ºC. Heb er zelf wel een fan op gemonteerd maar mocht niet baten... na 3 jaar ofzoiets was het einde oefening met dat bord.

Andere kaart, GeForce 4 Ti 4400 begint sinds kort pas (kleine) problemen te geven op 1080P, ding is denk ik richting de 15 jaar oud, is vast iets mis gegaan met de 'planned obsolescence' :+
(word overigens ook rond de 65ºC)

Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb zelf een RM650X, die redt wel alles, de enige vraag is met welk vermogen het is en of dat je beter de hogere versie hebt (klein prijsverschil).
Ik zou echter de RM750X of RM850X aanraden in verband met extra connecties (PCIe en SATA) en omdat het meest efficiënte vermogen op 40% zit, met een kaart van €400-500 kom je rond de 170-200W uit, met een 2700X rond de 90-100W bij een gamingload dus bij elkaar 310-350W (50W voor de rest van het systeem) en 4*65=260, 4*75=300. Dit met de kanttekening dat ik niet weet of dat de CPU en grafische kaart tegelijkertijd die load halen tijdens gaming. Qua vermogen en efficiency is de 750W of 850W waarschijnlijk het beste.

Voor mij gewoon 1 CPU en 1 grafische kaart en ik ben niet zo'n liefhebber van het zo hoog mogelijk klokken tenzij de hardware wat te zwak wordt doordat het ouder wordt. Concreet, ik zou aan een 2700X niets wijzigen, een 2700 op 4,0 GHz. klokken (veronderstellende dat dat lukt met <<1,4V wat geen probleem zou moeten zijn) en bij een Vega56 zou ik de spanning met 0,05-0,1V verlagen en het zo tweaken dat het iets hoger klokt maar het vermogen lager ligt (AMD zet namelijk de spanning standaard te hoog).

[ Voor 35% gewijzigd door Verwijderd op 21-12-2018 20:36 ]


Acties:
  • +1 Henk 'm!

  • White Feather
  • Registratie: Januari 2000
  • Laatst online: 11-08 16:48
Verwijderd schreef op vrijdag 21 december 2018 @ 20:27:
[...]


Ik heb zelf een RM650X, die redt wel alles, de enige vraag is met welk vermogen het is en of dat je beter de hogere versie hebt (klein prijsverschil).
Ik zou echter de RM750X of RM850X aanraden in verband met extra connecties (PCIe en SATA) en omdat het meest efficiënte vermogen op 40% zit, met een kaart van €400-500 kom je rond de 170-200W uit, met een 2700X rond de 90-100W bij een gamingload dus bij elkaar 310-350W (50W voor de rest van het systeem) en 4*65=260, 4*75=300. Dit met de kanttekening dat ik niet weet of dat de CPU en grafische kaart tegelijkertijd die load halen tijdens gaming. Qua vermogen en efficiency is de 750W of 850W waarschijnlijk het beste.

Voor mij gewoon 1 CPU en 1 grafische kaart en ik ben niet zo'n liefhebber van het zo hoog mogelijk klokken tenzij de hardware wat te zwak wordt doordat het ouder wordt. Concreet, ik zou aan een 2700X niets wijzigen, een 2700 op 4,0 GHz. klokken (veronderstellende dat dat lukt met <<1,4V wat geen probleem zou moeten zijn) en bij een Vega56 zou ik de spanning met 0,05-0,1V verlagen en het zo tweaken dat het iets hoger klokt maar het vermogen lager ligt (AMD zet namelijk de spanning standaard te hoog).
Een RM650X doet tot maximale belasting ook gewoon nog 90%. En optimaal bij zo’n 300 wat, 92%: https://www.tomshardware....ir-rm650x-psu,4611-5.html

Dus voor efficiency een zwaardere voeding kopen is ook een beetje overdreven, zeker als je met een tosti-ijzer van 10 jaar oud aan het gamen bent. Die GTX 295 heeft nog geen 1 GB aan geheugen per GPU en gezien de brakke SLI-ondersteuning van tegenwoordig zul je er meestal ook maar 1 gebruiken.

Dus wat wil je met zo’n ding?
https://m.youtube.com/watch?v=TuuLSpGurtc

In 3D mark Vantage (normaal en extreme, op 1280x1024) is een 1080 GTX 3-7x zo snel, terwijl we weten dat de scaling (van de 2 gpu’s op de 295) in een synthetische benchmark vaak zeer hoog is. Dus 1 GPU, door gebrek aan SLI-ondersteuning zal het nog slechter doen. Bovendien had de GTX 295 last van micro-stuttering (zelfs in een benchmark) en is er een hele lage resolutie genomen om het kleine geheugen van de 295 niet te overbelasten.

Een 1050 (Ti)/1060 is heel wat goedkoper in gebruik, geeft aanzienlijk minder hitte af, kan op een normale voeding lopen en games lopen lekkerder.

Acties:
  • 0 Henk 'm!

Verwijderd

White Feather schreef op vrijdag 21 december 2018 @ 21:45:
[...]

Een RM650X doet tot maximale belasting ook gewoon nog 90%. En optimaal bij zo’n 300 wat, 92%: https://www.tomshardware....ir-rm650x-psu,4611-5.html
Dus voor efficiency een zwaardere voeding kopen is ook een beetje overdreven, zeker als je met een tosti-ijzer van 10 jaar oud aan het gamen bent.
Ik zeik inderdaad over pak hem beet 2 procentpunt maar hé, als je op slakken zou legt dan is de 750W waarschijnlijk wel net iets efficiënter met een 3700X en de 2070 concurrent van AMD (de 'grote' Navi) gaat gamen en daarna komt er waarschijnlijk nog wel een keer een kaart met een iets hoger vermogen erin want nu wil ik gewoon zo snel mogelijk die kaart upgraden met iets wat aanvaardbaar is. Stel dat je 10 uur per week zou gamen (best veel, toegegeven) dan zit je met 100/90 vs. 100/92 bij exact 280W op 333W in plaats van op 326W, dat is 7W verschil. Met 500 uur gaming per jaar zit je dan op 3,5 kWh. Na 10 jaar (de garantie-periode) op 35 kWh. Met een prijs van €0,2 per kWh komt dat uit op €7. Daar staat dan wel weer tegenover dat het vermogen bij idle wat lager ligt. Het punt is dat het prijsverschil vergelijkbaar is met het kostenverschil bij gebruik en dan kan je beter die extra connectoren hebben: een paar extra SATA-connectoren (9 bij de RM650X), 2 extra 8 pinnen voor PCIe en het extra vermogen voor de CPU. Ik denk niet dat ik dat ooit ga gebruiken maar het is leuk om het te kunnen doen, nietwaar? ;)
Overigens heb ik de 2018 versie.

Acties:
  • 0 Henk 'm!

  • Azbest
  • Registratie: April 2000
  • Laatst online: 13-09 15:19
Nemesizz schreef op vrijdag 21 december 2018 @ 17:37:
@Azbest M'n eigen dooie nVidia kaarten gingen niet kapot doordat ze te heet werden, vaak zaten ze maar rond de 65ºC max wat voor een videokaart niet eens gek is. Doen m'n Radeons het slechter (leven nog wel) die gaan vrolijk richting de 80ºC (6870 vanmiddag net nieuwe koelpasta opgedaan, ging voorheen richting 89ºC onder load).
Persoonlijk vind ik dit erg heet, het silicium zal gewoon degraderen op dat soort temperaturen.Wat ik vaak deed was die vreselijke herrie fan samen met de shroud eraf halen en vervolgens 3 8cm fans monteren.
Stil en effectief, doch erg lelijk, maar dat vond ik minder interessant.

Ik zie het gewoon net als met CPU's: 44 graden idle en 57 onder load vind ik acceptabel.
De achterkant van de print waar de GPU (of CPU) zich bevind, mag niet veel warmer worden dan de rest in idle toestand.

Hier een voorbeeld van mijn oude 9600GT, draaide tot vorig jaar op 930mhz met een voltage van 1.4V! De vrm's (aan de achterzijde) waren hier natuurlijk niet op berekend en die werden gekoeld met wat extra koelblokjes en een fan.
Helaas stopte de fan er op ene dag mee (vastgelopen) en zodoende de videokaart een paar uur later.
MosFET's waren te heet geworden en hadden de geest gegeven.

Afbeeldingslocatie: https://i.postimg.cc/9FYNQSTS/photo-2018-12-22-18-39-19.jpg

Alles draait in mijn beleving gewoon om temperatuur, voltage en ampère. Als je datasheets van transistoren bekijkt zie je richtlijnen voor koeling en absolute max waarden. Zolang je je aan die grenzen houdt kan de boel lang blijven draaien.
Wat ik voorheen wel deed, als ik de PC even niet gebruikte, zette ik em uit. Dat constant opwarmen, afkoelen, opwarmen, afkoelen is uiteindelijk hetgene wat m'n videokaarten (waarschijnlijk) de das om heeft gedaan. De 8800 uitgezonderd, daar zit een ontwerp fout in.
...
Als je oudere computers neemt met through hole componenten, dan zie dat fenomeen niet terug. Het heeft dus wederom te maken met het SMD proces en aannemelijk de temperaturen die te hoog oplopen. Veel warmte cyclussen versnellen dan eventuele schade aan het soldeerwerk.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Azbest schreef op vrijdag 21 december 2018 @ 16:52:
Vooral Nvidia zoekt de grens op qua koeling, en daarom gaan die vaak stuk. Ik heb eerder talloze moederborden vervangen vrijwel allemaal met Nvidia chipsets. Ze zetten doodleuk in hun datasheets dat hun chipsets tot 70 graden Celsius functioneren. Ja hoor, tuurlijk, Nvidia heeft silicium gezegend door engelen.
70 graden ambient of junction? Want 70 graden junction is nou niet bepaald bijzonder. Even buiten de CPU/GPU wereld is consumer vaak t/m 85 graden, en automotive tot 125/150 graden. (Maar ook sommige consumer chips zijn gemaakt voor ver boven de 85 graden, ligt aan waarvoor ze gemaakt worden). Dus ik zie niet direct een reden waarom het bijzonder zou zijn dat een chipset het doet op 70 graden.

Acties:
  • 0 Henk 'm!

  • Azbest
  • Registratie: April 2000
  • Laatst online: 13-09 15:19
Case temp in mijn geval, de temperatuur heeft invloed op het maximale vermogen wat de transistor kan leveren. Als dat overschreden wordt zal een transistor de geest geven.
Het hangt allemaal af van de SOA, maar ook een beetje geluk: geen chip is helemaal gelijk natuurlijk.
Wanneer je chip van idle naar load gaat neemt de warmte enorm snel toe op die plek, die zul je snel genoeg moeten kunnen afvoeren. Ik vind dat fabrikanten soms aardig lullige koelers monteren, de GTX275 en 295 waren daar goede voorbeelden van. Een TDP van 289W, op één radiaalfan... 8)7

Aan de andere kant heb je dan nog de problemen met warmte vs SMD solderingen.

Dus, beter om je chip zo goed mogelijk te koelen dan je vastklampen aan beloftes van chipmakers.

  • kunia5
  • Registratie: Maart 2016
  • Laatst online: 08-09 20:09
ja die enkele fan die op deze kaarten zat was nou niet echt de slimste keuze die ze genomen hebben.
Maar ja ze hebben er wel van geleerd zie dat zelden nog gebeuren behalve met de blower style coolers.
Pagina: 1