Slits verkligen grafikort av mining?

Permalänk
Medlem

Slits verkligen grafikort av mining?

Hej,

Funderar på att köpa ett grafikkort som använts för mining och efter lite sökande i forumet så finns det en hel del förståsigpåare som menar att de slits så mycket att de inte är värt många kronor. Det låter såklart möjligt med tanke på att kretskort och komponenter faktiskt slits av el men är det verkligen ett problem? Finns det några trovärdiga källor som har påvisat att slitaget är ett problem?

Självklart förstår jag att fläktarna slits men de kostar oftast inte många 100 lappar att byta ut. Och visst överklockar man inte miningkort för att få några ynka % på bekostnad av el?

Här är en video som jämför 2 kort som använts för mining samt spel under 2 år och de kan inte se någon skillnad, vet dock inte hur trovärdigt det är :

Visa signatur

CPU : AMD Ryzen 5 5600X Moderkort : ASUS ROG Strix B550-F GAMING Grafikkort :EVGA GeForce GTX 1080 Ti FTW3 iCX Gaming HDMI 3xDP 11GBMinne : Corsair 16GB Chassi :Fractal Design Define 7 Compact Nätdel : Corsair RM750x Skärm #1 : Asus VG349Q Ultrawide Skärm #2 : Acer X34 Ultrawide

Permalänk
Medlem

Det kan absolut vara ett problem, men behöver inte vara det heller. I överlag så är problemet med slitage på grafikkort detsamma som med glödlampor/led-lampor, dels brinntid men också hur många gånger de värmts upp och kylts ned (tänts och släckts).

Det finns tyvärr ingen spåkula som kan förutsäga när ett kort plötsligt dör pga slitna komponenter (det är så det oftast sker). Prestanda är heller ingen indikation alls eftersom att grafikkort inte presterar sämre över tid i ett givet scenario bara för att de blir äldre, ifall man bortser från snuskiga kort som suttit och kvävts i en burk i 5 år och aldrig blåsts rent.

Nåt som däremot kan ge indikationer om skick är hur den forna mining-entusiasten tänkt kring strömbudget och effektivitet, eller "hashrate per kWh". Det vara värt att försöka luska fram lite mer information från en eventuell försäljare med frågeställningar som t.ex:

"Hur fick du ut högst hashrate för minst ström med det här kortet då?"

Alternativt om du vågar vara mer rak på sak:

"Körde du det undervoltat eller sänkt power limit?".

Ett kort som körts med maximal strömbudget och högsta tillåtna spänning i tusentals timmar kan du inte lita på, särskilt om det är en billigare referensvariant utan överdimensionerad kylare och en massa extra strömfaser. Skillnaden i förbrukad effekt samt hur varma komponenterna blir är ganska stor mellan ett kort som använts med effektivitet i åtanke, jämfört med ett kort som bara tvingats producera maximal hashrate per timme.

Visa signatur

Nummer ett: CPU: Ryzen 3800X. GPU: Asus Strix RTX 2080 ti MB: Asus ROG Strix X570 Gaming.RAM: 16GB G.Skill Flare X DDR4 3200Mhz CL14. Kylare: NZXT Kraken X62. PSU: Seasonic Prime Ultra 850W Titanium. Chassi: Phanteks Enthoo Evolv XSkärm: Asus PB287Q (4K),

Bärbara: Acer Aspire V Nitro VN7-591. CPU i7 4710HQ. RAM: 8GB 1600Mhz DDR3. GPU GTX 860M.

Permalänk
Avstängd

Sämsta videon.
Varför skulle slitaget påverka prestandan?
Slitage betyder inte "gå sönder".
Det handlar helt enkelt om att kortet inte varar lika länge.
Komponenterna slits av värme som produceras, och eftersom mining producerar enorm värme så förstår man också att komponenterna slits.
Damm,värme o statisk elektricitet är elektronikens största fiender, bortsett från vatten

Permalänk
Medlem

Själv förstår jag inte problemet. Jag köper hellre ett kort som gått i 60 grader med 70 procent fläkthastighet i 2 år än ett kort som klockats till förbannelsen med maxad Power Limit och fläktar som snurrar i 3200rpm 12 timmar i sträck i jakt på de sista 2 FPS.

Edit: mining producerar värme men vad jag erfarit så har många stenkoll på värmeutveckling, fläktar och energiåtgång. Kontra "gamern" som pressar så mycket det går och kör 12h per dag med 80-90 grader på GPU.

Skickades från m.sweclockers.com

Visa signatur

MSI K9N SLI Diamond | MSI Diamond HDMI 7600GT | AMD X2 4200+ | 1GB Kingston HyperX| 32" LG 5000:1 screen | Asus EeePC 701

Permalänk
Medlem

Hög värme får förvisso saker att krokna lite fortare, men det som sliter mest är stora temperaturväxlingar - typ gått max i 12 timmar och avstängd (över natten) och påt igen nästa dag i många månader - medans en som underklockat och något neddragen effekt snurrat ostört 24/7 har betydligt mer 'potentiell' drifttid kvar trots att ha varit aktivt över år

Permalänk
Medlem
Skrivet av xxargs:

Hög värme får förvisso saker att krokna lite fortare, men det som sliter mest är stora temperaturväxlingar - typ gått max i 12 timmar och avstängd (över natten) och påt igen nästa dag i många månader - medans en som underklockat och något neddragen effekt snurrat ostört 24/7 har betydligt mer 'potentiell' drifttid kvar trots att ha varit aktivt över år

Vad är skillnaden på temperaturväxlingen som gamers utsätter grafikkorten för då? De går upp och ner från idle till load ibland flera hundra gånger om dagen (när man tabbar ur ett fullscreen spel eller när man är i menyer brukar kortet gå i idle).

Skickades från m.sweclockers.com

Permalänk
Inaktiv

Det mesta som man använder slits. Och ju mer man använder det, dessto mer slits det.
Hur man använder produkten påverkas också. Att ifrån vila gå till 100% och sedan vila igen, resulterar i att metaller och annat expanderar krymper och expanderar.

Så om man ska köp ett schysst begagnad grafikkort så skulle jag säga att ett grafikkort i en dator där grafikkortet nästan aldrig belastades är det bästa. Det finns faktisk rätt så många såna grafikkort. Svårigheten är dock att hitta dem och bland dessa finns det många bedragare. Alltså en annons oanvänd 2080 Ti säljes p.g.a felköp, bytes även emot 1060 6GB eller liknande.

*edit*
Så klippet tyckte det var trams. Visst för de halmgubbarna som tror att ett miningkort i prestandatester presterar sämre försökte han bevisa något. Men för den stora skaran som är rädd för att ett miningkort har slitits mer var klippet inget hjälp för.
Ta en bil, en bil som har rullat 50 000mil är nödvändigtvis inte så extremt mycket slöare än en bil som har rullat 10 000mil. Men antal hästkrafter ut är inte det som folk är rädda för mer långmilare.

Permalänk
Medlem

Har ni några trovärdiga källor som faktiskt kan peka på problemet? D.v.s där man bevisat genom verkliga tester?

När jag läste el en gång i tiden så pratade man om att ex banor på kretskort kunde slitas och det handlade då om att elektronerna som förflyttar sig mellan atomerna i en bana sliter ner. När ett visst område blir trängre så blir det mer motstånd för elektronerna och detta bilder i sin tur mer värme. Resultatet blir en upphettning till nivåer som gör att banan blir förstörd och obrukbar. Det är mycket möjligt att komponenter lider av samma problem.

Det var dock ett bra tag sen jag pluggade så det är fullt möjligt att det inte är helt rätt.

Men även om det rent teoretiskt kan bli problem här så vill man gärna se test när man faktiskt kan visa att det är ett problem. Att ett grafikkort förr eller senare lägger ner kan jag köpa men vid normal användning känns det inte som något man egentligen behöver fundera på då de håller så pass länge ändå. Att köra kortet dygnet runt bör slita på kortet mer rent teoretiskt men blir det verkligen en sådan försämring att vi behöver fundera över det? Om kortet lägger ner efter 10 år kan man troligen leva med tanke på dagens utveckling.

Visa signatur

CPU : AMD Ryzen 5 5600X Moderkort : ASUS ROG Strix B550-F GAMING Grafikkort :EVGA GeForce GTX 1080 Ti FTW3 iCX Gaming HDMI 3xDP 11GBMinne : Corsair 16GB Chassi :Fractal Design Define 7 Compact Nätdel : Corsair RM750x Skärm #1 : Asus VG349Q Ultrawide Skärm #2 : Acer X34 Ultrawide

Permalänk
Medlem
Skrivet av tumvanten:

Varför skulle slitaget påverka prestandan?

Är det inte grundläggande? Att kretsbanor slits över tiden av användning och att det då blir högre motstånd vilket kanske kan leda till sämre matning till viktiga komponenter. Inledningsvis bör det ju betyda att komponenter inte får vad de behöver och därmed underpresterar. Nästa steg är att förbindelser helt bryts på grund av värme eller yttre påverkan.

Men nu pratar vi igen rent teoretiskt, i verkligheten kanske inte detta spelar någon roll på en produkt som man kanske ändå inte använder aktivt mer än 5-10 år?

Visa signatur

CPU : AMD Ryzen 5 5600X Moderkort : ASUS ROG Strix B550-F GAMING Grafikkort :EVGA GeForce GTX 1080 Ti FTW3 iCX Gaming HDMI 3xDP 11GBMinne : Corsair 16GB Chassi :Fractal Design Define 7 Compact Nätdel : Corsair RM750x Skärm #1 : Asus VG349Q Ultrawide Skärm #2 : Acer X34 Ultrawide

Permalänk
Medlem

Normalt brukar elektonik som är påslagen med jämn last fungera väldigt länge. Det som normalt dödar elektronik är on/off, ojämn last och varma miljöer.

Har ett kort körts med jämn last och bra kylning tror jag inte det är ett dåligt köp.

Visa signatur

Moderkort: MSI MPG X570 Gaming plus CPU: Ryzen 7 3800X
RAM: Corsair Vengeance LED 16GB DDR4 3200 MHz Kylning: Noctua NH-D15 chromax.black Lagring: 4 x Samsung 840 Pro 500GB
Grafikkort :Sapphire Radeon™ RX 6950 XT PURE NITRO+ Nätaggregat: EVGA SuperNOVA 750 G2
Chassi: Fractal Design Define Vision S2 Blackout Monitor: HP OMEN 27
Tangentbord: Corsair Gaming Strafe RGB MX SILENT Mus: SteelSeries Rival 700

Permalänk
Avstängd
Skrivet av Jimmy:

Är det inte grundläggande? Att kretsbanor slits över tiden av användning och att det då blir högre motstånd vilket kanske kan leda till sämre matning till viktiga komponenter. Inledningsvis bör det ju betyda att komponenter inte får vad de behöver och därmed underpresterar. Nästa steg är att förbindelser helt bryts på grund av värme eller yttre påverkan.

Men nu pratar vi igen rent teoretiskt, i verkligheten kanske inte detta spelar någon roll på en produkt som man kanske ändå inte använder aktivt mer än 5-10 år?

Varför skulle komponenterna i ett grafikkort underprestera för att de får sämre matning???

Det är ju trots allt clocken på minnen och gpu som bestämmer prestandan, sjunker sedan volten pga slitage ja då underclockar ju inte minnena och gpun sig själva, varför skulle de göra det?
Det är nog snarare så att grafikkortet stänger av sig pga för låg volt.

Har du inte själv provat att undervolta ditt grafikkort? Det som händer är inte att prestandan blir lidande.

Det finns så mycket korkade argument för saker o ting i denna tråden.

Permalänk
Festpilot 2020, Antiallo

@Jimmy:
Rent krasst så är det inte belastningen som sliter på kortet utan värmecykler som får metallen att expandera och dra ihop sig.
Ett kort som körts kontinuerligt vid samma last ser jag inga problem med att köpa, värre att ha ett kort som suttit i en spelrigg och kört Mining när man är i "idle" då detta ger maximalt antalt cykler (och högst slitage på PCB och lödpunkter).

Det är vanligt att man väljer att inte flytta gamla servrar som är i drift just för att man är orolig att grejerna pajar om man låter de svalna och sedan startas på nytt.

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Medlem
Skrivet av Jimmy:

När jag läste el en gång i tiden så pratade man om att ex banor på kretskort kunde slitas och det handlade då om att elektronerna som förflyttar sig mellan atomerna i en bana sliter ner. När ett visst område blir trängre så blir det mer motstånd för elektronerna och detta bilder i sin tur mer värme.

Helt fel tänkt - elektronerna rör sig alltid och alla tider på tex. en kopparledare - en ström eller spänning är bara mer strukturerad rörelse i en viss riktning ett tag, själva elektronen i en ledare rör sig heller inget fort, bara enstaka mm per sekund.

Det är de lättrörliga elektroner i tex. en ledare (koppar) som drar isär en inkommande vågrörelse som innan ligger 0 grader mellan elektrostatiska fältet och magnetiska fältet, och när det är mer än 0 grader skillnad så tenderar vågrörelsen att börja vilja följa elektronrörelserna i ledare och ju närmare vågrörelsen är mot de rörliga elektronerna, kommer, fasvinkel ökar mellan ström och spänning och följer ledaren allt mer slaviskt och det är precis vad en antenn gör - att omvandla elektroniska vågor i fri rymd (och inte behöver någon ledare) till något som följer en kabel slaviskt och man kan mäta dess effekt.

med andra ord det är inte strömmen som gör att en ledare kanske börja leda sämre, utan det är i så fall fysikaliska processer (tex omkristallation i själva metallen med korngränser som höjer resistansen) eller kemiska reaktioner (korrosion som gör arean mindre på ledare...

...

Skulle man resonera som du gör så skulle tex. vatten slitas ut för att det är vågor och att det plaskar och skvalpar - och det vet dom flesta att det inte gör så med tanke på att ingen vatten på jorden är yngre är ett flertal miljader år och det har blåst och skvalpat länge i våra hav. Samma sak med elektronvågrörelser på en ledare är inget som slits övh.

Det som stressar är termiska växlingar och material krymper och sträcker ut sig av rörelserna - det stressar på lödningar och genomföring och efter ett antal cykler så börja det bli lodsprickor och med det så småningom glappkontakt.

det är också den orsaken varför snurrdiskar som är aktiva 24/7 året ofta får betydligt fler timmar total drifttid än en snurrdisk som ofta startas och stoppas i tex. sleep-lägen på använda datorn/NAS.

vi får se hur våra flash-minnen kommer att hålla över tiden i avseende lodsprickor och annat om dessa är i situationer att värmebildningen variera väldigt mycket med läsningar och skrivningar i längden.

Permalänk
Medlem

@xxargs Då har jag förväxlat det med skador på kretskort banor, det var iallafall något som ökade motståndet och generade mer värme. Men det var uppenbarligen för länge sen jag läste de kurserna och egentligen är jag inte intresserad av detaljerna. Jag tackar såklart för att du tog dig tid att förklara!

Visa signatur

CPU : AMD Ryzen 5 5600X Moderkort : ASUS ROG Strix B550-F GAMING Grafikkort :EVGA GeForce GTX 1080 Ti FTW3 iCX Gaming HDMI 3xDP 11GBMinne : Corsair 16GB Chassi :Fractal Design Define 7 Compact Nätdel : Corsair RM750x Skärm #1 : Asus VG349Q Ultrawide Skärm #2 : Acer X34 Ultrawide

Permalänk
Medlem

Det är mycket teori nu, teori som jag uppenbarligen saknar kunskap för. Finns det några studier där man verkligen mätt upp vad det innebär att köra grafikkort under konstant press en längre period? Slits de verkligen så pass mycket att det märks av inom en 5-10 års period?

Visa signatur

CPU : AMD Ryzen 5 5600X Moderkort : ASUS ROG Strix B550-F GAMING Grafikkort :EVGA GeForce GTX 1080 Ti FTW3 iCX Gaming HDMI 3xDP 11GBMinne : Corsair 16GB Chassi :Fractal Design Define 7 Compact Nätdel : Corsair RM750x Skärm #1 : Asus VG349Q Ultrawide Skärm #2 : Acer X34 Ultrawide

Permalänk
Medlem

Jag har haft 2 av 10 grafikkort som efter ca 6 månader inte har klarat samma klockfrekvens på minnena.
Behövde sänka ca 50mhz för att dom skulle gå stabilt igen.
Ett 480 och ett 1060.

Många olika faktorer kan ha påverkat.
Vill minnas att jag läst många gånger här på forumet att CPUer behövs klockas ner efter några års drift.

Majoriteten av mina komponenter som gett upp med åren är moderkort.

mer text
Permalänk
Medlem

Jag är skeptisk till att det har någon relevant betydelse om det använts till mining.

Precis som det brukar hävdas att CPUers livslängd påverkas av överklockning, har fortfarande inte hört någon säga ”min cpu har gått överklockad i X år, nu dog den”.

Visa signatur

"When I get sad, I stop being sad and be awsome instead, true story."

Permalänk
Forumledare
Skrivet av tumvanten:

Varför skulle komponenterna i ett grafikkort underprestera för att för sämre matning???

Det är ju trots allt clocken på minnen och gpu som bestämmer prestandan, sjunker sedan volten pga slitage ja då underclockar ju inte minnena och gpun sig själva, varför skulle de göra det?
Det är nog snarare så att grafikkortet stänger av sig pga för låg volt.

Har du inte själv provat att undervolta ditt grafikkort? Det som händer är inte att prestandan blir lidande.

Det finns så mycket korkade argument för saker o ting i denna tråden.

Jag tar det som att inlägget var formulerat mer som en fråga, inte som en argumentation. Dock kan jag ha missförstått.
Hur som haver finns det ingen anledning att bli så upprörd om någon skulle ha fel. Det är bättre att lugnt och sansat förklara vad som är fel och vad som istället är rätt

Visa signatur

Forumets regler | Har du synpunkter på hur vi modererar? Kontakta SweClockers/moderatorerna

Jag stavar som en kratta

Gillar lök på discord

Permalänk
Medlem
Skrivet av SayZk:

Vad är skillnaden på temperaturväxlingen som gamers utsätter grafikkorten för då? De går upp och ner från idle till load ibland flera hundra gånger om dagen (när man tabbar ur ett fullscreen spel eller när man är i menyer brukar kortet gå i idle).

Skickades från m.sweclockers.com

om man jämför med en miningkort som inte körts överklockad och sansad temperatur - så ja, gamerkort som använts för mycket spel och blivit varm/kall många gånger under en dag i ett X antal månader är potentiellt mer stressad på sina lödningar etc. än nämda minerkort.

Sedan finns det saker på en konstant körd miner-kort som kan uppvisa mindre kvarvarande livslängd som dess fläktar, har mer damm i sig etc. men mycket av det är möjligt att åtgärda i efterhand om det börja låta i lagren eller blåsa ren flänsarna emellanåt.

---

Problemet för att kunna svara på sådana saker är att man behöver göra analys på kanske tusentals kort över en lång tid med ett stort antal olika parametrar som tid förflöt från tillverkning, strömsatt tid och sedan lastprofil och hur värmen har gått upp och ned med användandet under hela brukartiden tills tillräckligt många går sönder. Men, grafikkort brukar vara något som byts ut ganska ivrigt och långt innan någon tekniskt satt livslängd (i regel sätts av på kortet monterade fläkten och dess lager) uppnås.

Det enda grafikkorten jag har sett gått sönder för min del efter rätt många års drift är ganska klena och fläktlösa sådan för tänkt tyst burk - förmodligen att det blev lokala hotspot på en del av kretsarna som inte kyldes undan och för många cykler av det under åren och någon viktig lödpunkt fick lodsprickor och släppte till slut det börja glappa. det behöver inte vara GPU:n som ger sig först utan hjälpkretsrar runt om som tex. har hand om matningsspänningen, minneskretsar etc.

Den elektroniska produkt man har mest kontroll på detta är faktisk vanliga snurrhårddiskar iom. att de används i sådana massor i datacenters etc. och kan övervakas automatiskt med SMART mfl. funktioner - men även där så sjunker 'precisionen' i bedömningen väldigt fort så fort man går åt laptop med snurrdisk,desktopdatorer och konsument-skiktet där användningen inte är alls lika homogen och välkontrollerad. (och jag måste ändå säga att dagens laptop-snurrdiskar är väldigt stryktåliga med tanke på vad de kan råka ut för i jobbet - vi har lenovo T-datorer med sprucken plast lite var stans för att det rasat ned på betonggolv i alla tänbara vinklar från teknikskåp upp till 2 meters höjd och de har snurr-hårddiskar från HGST och ännu ingen som gått sönder trots den grova misshandeln)

Permalänk
Medlem
Skrivet av Jimmy:

Har ni några trovärdiga källor som faktiskt kan peka på problemet? D.v.s där man bevisat genom verkliga tester?

När jag läste el en gång i tiden så pratade man om att ex banor på kretskort kunde slitas och det handlade då om att elektronerna som förflyttar sig mellan atomerna i en bana sliter ner. När ett visst område blir trängre så blir det mer motstånd för elektronerna och detta bilder i sin tur mer värme. Resultatet blir en upphettning till nivåer som gör att banan blir förstörd och obrukbar. Det är mycket möjligt att komponenter lider av samma problem.

Det var dock ett bra tag sen jag pluggade så det är fullt möjligt att det inte är helt rätt.

Men även om det rent teoretiskt kan bli problem här så vill man gärna se test när man faktiskt kan visa att det är ett problem. Att ett grafikkort förr eller senare lägger ner kan jag köpa men vid normal användning känns det inte som något man egentligen behöver fundera på då de håller så pass länge ändå. Att köra kortet dygnet runt bör slita på kortet mer rent teoretiskt men blir det verkligen en sådan försämring att vi behöver fundera över det? Om kortet lägger ner efter 10 år kan man troligen leva med tanke på dagens utveckling.

Fenomenet kallas elektromigration

https://en.wikipedia.org/wiki/Electromigration

Det är dock inte kretskorten i sig som drabbas utan ic-kretsarna vars banor utsätts för väldigt höga strömtätheter.

Skickades från m.sweclockers.com

Permalänk
Medlem

Brukar väl annars vara kondensatorerna som slits av värmen. Typ 10 graders skillnad i miljön kan typ fördubbla livslängden om jag inte minns fel.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av CubaCola:

Brukar väl annars vara kondensatorerna som slits av värmen. Typ 10 graders skillnad i miljön kan typ fördubbla livslängden om jag inte minns fel.

Japp, kondensatorerna är ofta 5K-rated vilket betyder att de ska klara ca 5000 timmar vid en given temperatur, ex. 105 grader celsius. Jag brukade noja över det lite förut men efter att ha kollat på youtube-kanaler som Actually Hardcore Overclocking verkar det inte som att kondensatorer på grafikkort är en vanlig felkälla av någon anledning.

Skickades från m.sweclockers.com

Visa signatur

Nummer ett: CPU: Ryzen 3800X. GPU: Asus Strix RTX 2080 ti MB: Asus ROG Strix X570 Gaming.RAM: 16GB G.Skill Flare X DDR4 3200Mhz CL14. Kylare: NZXT Kraken X62. PSU: Seasonic Prime Ultra 850W Titanium. Chassi: Phanteks Enthoo Evolv XSkärm: Asus PB287Q (4K),

Bärbara: Acer Aspire V Nitro VN7-591. CPU i7 4710HQ. RAM: 8GB 1600Mhz DDR3. GPU GTX 860M.

Permalänk
Medlem
Skrivet av Jimmy:

Har ni några trovärdiga källor som faktiskt kan peka på problemet? D.v.s där man bevisat genom verkliga tester?

När jag läste el en gång i tiden så pratade man om att ex banor på kretskort kunde slitas och det handlade då om att elektronerna som förflyttar sig mellan atomerna i en bana sliter ner. När ett visst område blir trängre så blir det mer motstånd för elektronerna och detta bilder i sin tur mer värme. Resultatet blir en upphettning till nivåer som gör att banan blir förstörd och obrukbar. Det är mycket möjligt att komponenter lider av samma problem.

Det där var vanligt förr (typ 30 år sen eller mer), men då på ledarbanor inne på chippet. Numera har man koll på det så ska inte vara nåt problem längre.

Ett annat problem var fukt som kunde tränga in genom plastkapslingen och ge korrosion på ledarbanorna. Har även det blivit mycket bättre, samt om kortet är på 24/7 är det alltid varmare inne i komponenten vilket förhindrar fukt att tränga in.

Skrivet av Jimmy:

Det var dock ett bra tag sen jag pluggade så det är fullt möjligt att det inte är helt rätt.

Men även om det rent teoretiskt kan bli problem här så vill man gärna se test när man faktiskt kan visa att det är ett problem. Att ett grafikkort förr eller senare lägger ner kan jag köpa men vid normal användning känns det inte som något man egentligen behöver fundera på då de håller så pass länge ändå. Att köra kortet dygnet runt bör slita på kortet mer rent teoretiskt men blir det verkligen en sådan försämring att vi behöver fundera över det? Om kortet lägger ner efter 10 år kan man troligen leva med tanke på dagens utveckling.

Elektrolytkondensatorer är nåt som slits av användning + temperatur. Felmekanismen där är att elektrolyten dunstar (ESR går upp) så till slut är kondensatorn torr. Är kondensatorn högt belastad med rippleström så kan den bli överhettad och börja koka. Sen har vi:
https://en.wikipedia.org/wiki/Capacitor_plague
https://www.theguardian.com/technology/blog/2010/jun/29/dell-...
Vilket gett elektrolytkondensatorer dålig rykte.

Numera använder man dock polymer-elektrolyt som ska vara klart bättre. (Har ännu inte råkat ut för nåt fall där jag sett en trasig sådan kondensator)

Slutligen temperaturväxlingar som mekaniskt utmattar lödningar vilket till slut ger avbrott och utebliven funktion.