Backblaze visar felstatistik på 190 000 lagringsenheter

Permalänk
Medlem

"Sir, HGST diskar vägrar gå sönder och våra diskar ser ut som skit..."
"Det är fan inte OK, Köp bolaget och lägg ner det omedelbart!"

Sitter med HGST varav en faktiskt failat och jag vill köpa en ny, OTUR.... Jag är inte bitter

Permalänk
Medlem
Skrivet av filbunke:

I den jämförelsen är det mellan hårddiskar och ssd:er som använts som bootdiskar och för att skriva loggfilar till, inga diskar som använts för lagring. Så samma användningsområde.

Men i den här tabellen ser ju skillnaden mycket större ut.

24% lägre AFR är ju ganska stor skillnad.

Permalänk
Medlem

I den är det Q2 2021 för SSD:erna, i den andra Q3 2021. Gissar att ett antal SSD:er rasade Q3 2021?

Permalänk
Medlem
Skrivet av Defender:

Ja fy fan för Seaskräp, har inte haft en sån disk sedan 2005, kört nära på uteslutande WD och har faktiskt aldrig haft nått haveri.
Dock kör oftast inte raid heller.

Edit: just ja, köpte en extern Seagate usb bla bla bla disk för ett par år sedan, den höll i 2 månader och det enda jag gjorde med disken var att lagra bilder (som jag så klart blev av med)

Jag har en 8TB Seagate från början av 2016 som fortfarande tuffar på... Men man vet ju aldrig.
Huvudsaken man har backup så ett hårddiskkrasch bara blir ett litet irritationsmoment och inte en personlig tragedi.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem
Skrivet av filbunke:

I den är det Q2 2021 för SSD:erna, i den andra Q3 2021. Gissar att ett antal SSD:er rasade Q3 2021?

Det framgår inte så exakt, i den första tabellen och den andra är det exakt samma siffra för HDDs men inte samma SSDs, inte pålitligt för att kunna dra några som helst slutsatser.

Permalänk
Medlem

Och om någon vill veta mera så kan man ladda hem rådata från Backblaze.

https://www.backblaze.com/b2/hard-drive-test-data.html

Rådatan för senaste kvartalet är 974Mb zippat, 5,93Gb uppackat.
Total rådata 14Gb zippat, 78Gb upackat.

Senaste kvartalet har daglig data för lite över 180 tusen diskar, varav iallafall minst 1500 eller så SSD:er.

modeller och antal från deras data 1 juli i år:

model antal TOSHIBA MG07ACA14TA 32032 ST12000NM0008 20328 ST4000DM000 18792 ST8000NM0055 14401 HGST HMS5C4040BLE640 12656 HGST HUH721212ALN604 10833 HGST HUH721212ALE604 10754 ST12000NM001G 10736 ST8000DM002 9733 ST14000NM001G 8359 WDC WUH721414ALE6L4 8263 ST16000NM001G 4859 ST12000NM0007 3492 HGST HMS5C4040ALE640 3212 HGST HUH721212ALE600 2600 ST14000NM0138 1653 TOSHIBA MG08ACA16TEY 1430 ST10000NM0086 1199 HGST HUH728080ALE600 1077 ST6000DX000 886 Seagate BarraCuda 120 SSD ZA250CM10003 751 WDC WUH721816ALE6L0 600 Seagate BarraCuda SSD ZA250CM10002 561 ST500LM012 HN 431 TOSHIBA MG07ACA14TEY 424 TOSHIBA MQ01ABF050M 343 TOSHIBA MQ01ABF050 310 ST500LM030 232 WDC WD5000LPVX 197 DELLBOSS VD 166 WDC WUH721414ALE6L4 137 Seagate SSD 108 TOSHIBA MD04ABA400V 98 MTFDDAV240TCB 94 ST18000NM000J 60 WDC WD5000LPCX 52 ST8000NM000A 43 TOSHIBA MG08ACA16TA 39 ST4000DM005 38 ST500LM021 33 HGST HUS726040ALE610 28 HGST HDS5C4040ALE630 26 ST16000NM005G 26 ST8000DM005 25 WDC WUH721816ALE6L0 24 ST14000NM0018 21 HGST HUH721010ALE600 20 Seagate BarraCuda SSD ZA500CM10002 18 TOSHIBA HDWF180 17 ST12000NM0117 10 WDC WD5000BPKT 10 Hitachi HDS5C4040ALE630 6 ST6000DM001 4 TOSHIBA HDWE160 4 Seagate BarraCuda SSD ZA2000CM10002 3 WDC WD60EFRX 3 ST10000NM001G 2 HGST HDS724040ALE640 1 HGST HMS5C4040BLE641 1 ST1000LM024 HN 1 ST6000DM004 1 ST8000DM004 1

Varav de här är modeller som är 500 Gb och under (och då troligtvis används för att boota och logga):

MTFDDAV240TCB Seagate BarraCuda 120 SSD ZA250CM10003 Seagate BarraCuda SSD ZA250CM10002 Seagate SSD DELLBOSS VD Seagate BarraCuda SSD ZA500CM10002 ST500LM012 HN ST500LM021 ST500LM030 TOSHIBA MQ01ABF050 TOSHIBA MQ01ABF050M WDC WD5000BPKT WDC WD5000LPCX WDC WD5000LPVX

Permalänk
Medlem

HGST verkar ju rätt stabila, men ja de går ju inte o köpa nu typ

Har kört 5 st 5TB WD red diskar i väldigt många år nu, och de tuffar på fint fortfarande, 24/7 drift och har ingen avstängning på i windows på diskar.
Sista crashande disken var vääääldigt många år sedan, en seagate barracuda 2tb disk.

Permalänk
Medlem
Skrivet av Mordekai:

Det framgår inte så exakt, i den första tabellen och den andra är det exakt samma siffra för HDDs men inte samma SSDs, inte pålitligt för att kunna dra några som helst slutsatser.

De jämför tom Q4 2016 för hårddiskarna.
Och de uppdaterar kvartal för kvartal för SSD:erna tom då Q4 2021.

Och även om de då visar fel över tid så blir det ju endå fel (eftersom fel tenderar att vara initiala, och sen öka med tid), och därmed så ser värden för SSD:erna bättre ut än hårddiskarna. Det intressant blir ju nästa kvartalsrapport.

Permalänk
Skrivet av hakd:

Nu är detta mest RAID och NAS diskar men vill du att din HDD eller SSD ska leva längre så stäng av växlingsfil om du har tillräckligt med RAM samt minimera din webbläsares disk cash.

Gick efter Backblaze när jag köpe mina 8TB WD red. Tre av fem stannade inom ett år först men ersättarna har snart rullat på i fyra år så det gäller ha lite tur med vilka batcher dom kommer ifrån.

Tror inte Windows eller Linux kör växlingsfil förutom på bootdisken.

Skrivet av Shiprat:

Köpte tre st Toshiba X300 10TB från webhallen och inom några veckor började den första strula med "Seek error" i Smart vilket ledde till meddelande i event log i stil med "This drive is predicted to fail" osv. Det mest frustrerande med det hela var att felet kom och gick samt att den unika delen av serienumret på disken är mitt i serienumret snarare än på slutet vilket gjorde det allmänt irriterande att läsa- plockade ur en disk för att ta till webhallen för byta men samma dag fick jag Seek Error på en av de andra diskarna och trodde att jag misstagit mig och dragit ur fel disk. Sedan hoppade problemet runt- bytte en disk och för ett par veckor sedan bytte jag de andra två också- de hade fungerat okej en period just för att jag inte använt servern och specifikt inte något som låg på just de diskarn på ett tag.

Meddelandet i event log dök alltid upp efter att servern gjorde reset efter bluescreen- så trodde ett tag att diskproblemen var ett symptom på något annat problem med server. När jag hade dem i snurrade den sällan längre än 24h, sen jag tagit ut alla tre har den snurrat i veckor.

Seek Errors ska inte orsaka omstart när det handlar om filer om inte på något vis är kritiska för OS, men jag. Vad ska man säga. Sista droppen var när jag flyttade en av diskarna till min 3900X rig som är bra mycket nyare och jag vet är pålitlig och stabil, började kopiera över allt som låg på disken och frustrerande nog funkade det utan några strul alls- tills den var färdig och hade fått stå i någon timme, då vart det en hard reset och "drive predicted to fail" även där.

Webhallen är riktiga polare som alltid- första disken fick jag bytt till en Ironwolf Pro, de andra två till WD Red Plus.
Aldrig mer toshiba

Vad har serienumret att göra med hur disken fungerar? Varför kollade du inte SMART-data istället för eventloggern eller testade diagnostikprogram från Toshiba?

Skrivet av filbunke:

För hårddiskarna är de data från om med 2013, för ssd:erna data från och med 2018.

Alltså så bör 2014 för hårddiskarna jämföras med 2019 för ssd:erna, osv.

Edit: dock så har de ju troligen köpt billigt när de gäller båda sorters bootdiskar.

Varför ska man enligt dig flytta fram ett år? Du vet väl inte hur Backblaze har testat dem?

Permalänk
Medlem
Skrivet av filbunke:

De jämför tom Q4 2016 för hårddiskarna.
Och de uppdaterar kvartal för kvartal för SSD:erna tom då Q4 2021.

Och även om de då visar fel över tid så blir det ju endå fel (eftersom fel tenderar att vara initiala, och sen öka med tid), och därmed så ser värden för SSD:erna bättre ut än hårddiskarna. Det intressant blir ju nästa kvartalsrapport.

För många fel, för hög felmarginal. Jämför de diskar som installerats samtidigt i identiska laster kan de vara intressant. Fem år kan variera enormt i typ av last. De siffror Backblaze visar kan inte extrapoleras till andra scenarios i nuläget.

Permalänk
Medlem

Rätt intressant att HDD och SSD följer en liknande kurva över de första 4 åren en disk är i bruk (om jag förstår diagrammet rätt).

För HDD har man ju vetat att risken för krasch är större i början av diskens livstid, för att sen plana ut under några år och börja öka igen när disken blir "gammal" (det som Backblaze kallar "bathtub curve"). Här ser det ut som att samma sak kan gälla för SSD - men det är svårt att gissa fortsättningen utifrån sista datapunkten enbart. Ska bli intressant att följa detta framöver!

Jag är inte helt med på varför HDD börjar på 0.66% Lifetime AFR i diagrammet, medan SSD börjar på 0%. Handlar det om att serien för HDD egentligen startade en bit in på 2013, men att de bara listar hela år? Oklart isf varför de inte kunnat välja dataset så att båda kategorierna startar på 0.

Visa signatur

Här hade jag en historik sen 1990-talet, men den blev tillslut för lång. Aktiva maskiner 2022-framåt:
Work/Play/Everythingstation: AMD Epyc 7443p, Pop OS host, Win10 + Linux guests (KVM/Qemu)
Work/Play nr 2: AMD Phenom II 1090t, Debian + Win 10 (dual boot)
Server x3: Epyc 7252 (TrueNAS Core), Atom 2550 (FreeBSD, backup), Opteron 6140 (Ubuntu, off prem backup)
Retrohörna under uppbyggnad: Dual Pentium Pro 200MHz, Pentium P54C 90MHz, Gravis Ultrasound MAX

Permalänk
Medlem
Skrivet av Dinkefing:

Tror inte Windows eller Linux kör växlingsfil förutom på bootdisken.

Vad har serienumret att göra med hur disken fungerar? Varför kollade du inte SMART-data istället för eventloggern eller testade diagnostikprogram från Toshiba?

Varför ska man enligt dig flytta fram ett år? Du vet väl inte hur Backblaze har testat dem?

Korrekt, om man inte själv ställer om det.
Även en bootdisk vill gärna leva länge, har man ram så det räcker så kan man spara hundratals GB i månaden vid dagligt bruk av datorn.

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Medlem
Skrivet av Dinkefing:

Vad har serienumret att göra med hur disken fungerar? Varför kollade du inte SMART-data istället för eventloggern eller testade diagnostikprogram från Toshiba?

Det var mest ett irritationsmoment då felet som sagt kom och gick- då jag i princip aldrig kunde se felet "live" så fick jag leta efter ledtrådar i eventloggen där man kunde se vad som hände innan servern gjorde en reset. När en disk varnade om failure så kollade jag dess nummer, baserat på det serienumret och bytte den disken med en gång. När felet sedan dök upp rätt snart igen så började jag ifrågasätta om jag lyckats förvirra mig och bytt fel disk- det hade jag inte.

Sa i mitt första inlägg att det var i SMART jag såg seek error. Vet inte hur mycket du rotat i SMART men Seek Error Rate är en av indikatorerna som SMART övervakar.
Felkoden jag fick i event viewer är också baserad på smart- den ena har jag ej screenshot på (blåste om OS på servern, rätt säker att det var ID 52) men den andra har jag- säger specifikt "Windows Disk Diagnostic detected a S.M.A.R.T fault on disk TOSHIBA HDWR11A (volumes K:\) This disk might fail; back up your computer now."

Om du kan peka mig mot en diagnostic tool direkt från Toshiba så vore det intressant- de har inga listade för interna diskar på sin hemsida vad jag minns (inte för denna iallafall). De har listade för externa HDD's, men jag antar ändå att de valt att inte lista den för X300/N300 osv av en anledning. Har inga X300 kvar men skadar inte att veta om jag stöter på det igen.

Oavsett så tvivlar jag att den skulle erbjuda någon information som visade att smart errors magiskt är okej.
Problemet med just Seek Error Rate i detta fall är att alla tre diskarna generellt visade 100 om man läste ut smart, deras threshold är 50, men deras "worst" om man kollar i crystaldiskinfo var alla 38. Men- raw står permanent som 000000000000 medan både CDI, HWinfo64 och win10 anser att det sker Seek errors. HWinfo64 loggade även "drive failure" vid ett tillfälle när jag lät det stå på ett tag.

Smart är en jävla röra generellt då ingen bra standard följs verkar det som.

Man kan om man vill argumentera att disken kanske fungerar rätt mekaniskt och det bara är rapporteringen eller tolkningar av indikatorer som är fel, men jag personligen är inte intresserad av det då jag inte är intresserad av att ha tre diskar av 19 (20 om man räknar med boot ssd) som ger disk failure predictions och som I senare led verkar orsaka något slags hard reset från och till. Detta är inte cutting-edge tech precis, vad det än var så borde det inte ske alls.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av SAFA:

Ganska osannolikt att alla tre skulle vara dåliga om de inte skadats i transporten då.

Måste notera på efterhand- skulle tro att det är MYCKET mer sannolikt att man får tre dåliga diskar från samma batch än att man får tre diskar som är dåliga från olika batches/märken/modeller, så kan inte hålla med om att det är osannolikt att alla tre var dåliga.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Shiprat:

Way ahead of you- provat att driva diskarna från separat nätagg, och som sagt så flyttade problemet med när jag satte dem i min 3900X rigg med ett HX1200i som utan problem kan stå med både CPU och GPU på 100% load i timmar utan minsta strul- när dessa diskar satt i fick den strul direkt.

Men ja, det var någonting med huvudpositioneringen. De var konstiga diskar generellt- högljudda som fan med tydliga ljud av att parkera huvudet från och till, gick alltid 10C varmare än alla andra diskar. Körde ett par loggar med HWinfo64 och problemen dök aldrig upp när diskarna var belastade, utan när de spann men inte gjorde något särskilt tungt.

Nu gillar jag (typ) felsökning av hårdvara men efter månader av att felsöka sporadiskt när jag hade tid, två orelaterade ombyggnaden av servern under vilka jag bytt båda CPUs, nätagg, Chassi, Boot drive, OS, haft diskarna på sata både direkt på moderkortet och på PCIe kort, monterat de två kvarvarande diskarna på dämpade slädar i sin egen bracket och konstaterat att problem följer med diskarna till en annan burk så ser jag ingen poäng med att fortsätta försöka när jag vet att maskinen går perfekt så fort de inte sitter i, bara slöseri med tid. Det är inte ett okänt problem heller- andra som har stött på det på nätet.

Var nog inte tillräcklig tydlig. Kragg blir dåligt och disk börjar utveckla dåliga sektorer, byter disk efter ett tag börjar även den utveckla dåliga sektorer, byter disk igen och samma sak. Byter kragg + disk och nu går det bra. Andra gången det hände var med ett löst usb-kabinett. När andra disken började visa på problem så misstänkte jag nät-adaptern. Med multimeter mätte spänningarna korrekt men kondensatorerna var uppsvällda så det var alldeles för mycket rippel.

Sen kan man tycka att en disk bör ha övervakning på matningen och inte skriva nåt om den är för dålig, men gissar det kostar för mycket på konsumentdiskar.

Skriva över hela disken ett antal gånger tills antalet reallokerade sektorer inte ökar kan få disken användbar igen, men på dina så låter det som servoinformationen gått sönder på några spår och då lär det inte finnas nån räddning. Dvs i det läget hjälper det inte att flytta disken annan dator eller bara byta kragg.

Jag antar du testat diskarna med smart lång test eller motsvarande innan de togs i drift för att utesluta att de var dåliga från början.

Permalänk
Medlem
Skrivet av SAFA:

Var nog inte tillräcklig tydlig. Kragg blir dåligt och disk börjar utveckla dåliga sektorer, byter disk efter ett tag börjar även den utveckla dåliga sektorer, byter disk igen och samma sak. Byter kragg + disk och nu går det bra. Andra gången det hände var med ett löst usb-kabinett. När andra disken började visa på problem så misstänkte jag nät-adaptern. Med multimeter mätte spänningarna korrekt men kondensatorerna var uppsvällda så det var alldeles för mycket rippel.

Sen kan man tycka att en disk bör ha övervakning på matningen och inte skriva nåt om den är för dålig, men gissar det kostar för mycket på konsumentdiskar.

Skriva över hela disken ett antal gånger tills antalet reallokerade sektorer inte ökar kan få disken användbar igen, men på dina så låter det som servoinformationen gått sönder på några spår och då lär det inte finnas nån räddning. Dvs i det läget hjälper det inte att flytta disken annan dator eller bara byta kragg.

Jag antar du testat diskarna med smart lång test eller motsvarande innan de togs i drift för att utesluta att de var dåliga från början.

Hmm okej, det låter ju rimligt, dock är jag rätt säker att det inte är den situationen jag har- det RM750XV2 som sitter i nu är köpt nyligen just för detta. Innan dess satt diskarna ett tag i min 3900X burk, minns inte vad jag hade för agg i den då- förmodligen ett RM650 som också var inköp bara några månader sedan. När de sista två började strula flyttade jag över dem till 3900X-burken igen som nu har HX1200i. Skulle kunna köpa att nätagget är ett problem- särskilt som servern är nu, driver väldigt många diskar för ett 750, men inte när problemet yttrat sig på andra agg. Also, inte egentligen heller när problemet yttrat sig på alla dessa diskar men inte på någon av de andra diskarna jag har.

Disk nummer två tömde jag en gång och fyllde igen då jag blev osäker på om det verkligen var den som strulade, som sagt funkade de perfekt under faktisk belastning generellt, frustrerande nog. Vart ett tag rätt övertygad om att det måste vara något på gång med serverbrädan, vilket var varför jag flyttade dem till annan burk igen.

Nope, testade dem inte ingående i förväg, och ärligt talat ser jag ingen poäng med det heller för min del- de var inte del av ett array, och de började strula tidigt nog att jag var rätt beredd på att behöva tömma dem till någon annan disk senare.

Finns mycket som kan sägas om det hela men i slutänden så är det svårt att köpa att man ska lägga oändligt felsökningstid därför att tre diskar, alla av samma modell, strular en rigg där många andra diskar av olika modeller funkar perfekt. Kan diskarna inte bete sig normalt i samma omständigheter som andra diskar så är de undermåliga, mer än så är det inte.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Shiprat:

Hmm okej, det låter ju rimligt, dock är jag rätt säker att det inte är den situationen jag har- det RM750XV2 som sitter i nu är köpt nyligen just för detta. Innan dess satt diskarna ett tag i min 3900X burk, minns inte vad jag hade för agg i den då- förmodligen ett RM650 som också var inköp bara några månader sedan. När de sista två började strula flyttade jag över dem till 3900X-burken igen som nu har HX1200i. Skulle kunna köpa att nätagget är ett problem- särskilt som servern är nu, driver väldigt många diskar för ett 750, men inte när problemet yttrat sig på andra agg. Also, inte egentligen heller när problemet yttrat sig på alla dessa diskar men inte på någon av de andra diskarna jag har.

Disk nummer två tömde jag en gång och fyllde igen då jag blev osäker på om det verkligen var den som strulade, som sagt funkade de perfekt under faktisk belastning generellt, frustrerande nog. Vart ett tag rätt övertygad om att det måste vara något på gång med serverbrädan, vilket var varför jag flyttade dem till annan burk igen.

Nope, testade dem inte ingående i förväg, och ärligt talat ser jag ingen poäng med det heller för min del- de var inte del av ett array, och de började strula tidigt nog att jag var rätt beredd på att behöva tömma dem till någon annan disk senare.

Finns mycket som kan sägas om det hela men i slutänden så är det svårt att köpa att man ska lägga oändligt felsökningstid därför att tre diskar, alla av samma modell, strular en rigg där många andra diskar av olika modeller funkar perfekt. Kan diskarna inte bete sig normalt i samma omständigheter som andra diskar så är de undermåliga, mer än så är det inte.

Jo, i ditt fall låter det som dåliga diskar, i mitt fall var det olika modeller o olika fabrikat. Dock test av nya diskar gör jag alltid. Har fått skicka tillbaka tre av åtta diskar när jag skulle ha till en array för ett antal år sen. Mycket enklare testa först allt strul med att byta efter man tagit dem i drift.

Permalänk
Medlem
Skrivet av SAFA:

Var nog inte tillräcklig tydlig. Kragg blir dåligt och disk börjar utveckla dåliga sektorer, byter disk efter ett tag börjar även den utveckla dåliga sektorer, byter disk igen och samma sak. Byter kragg + disk och nu går det bra. Andra gången det hände var med ett löst usb-kabinett. När andra disken började visa på problem så misstänkte jag nät-adaptern. Med multimeter mätte spänningarna korrekt men kondensatorerna var uppsvällda så det var alldeles för mycket rippel.

Detta med otillräckliga/defekta krafter kan inte understrykas nog, samma sak att man grenat ut strömförsörjning i för många led om man har många diskar. - när det gäller USB.diskar och speciellt 2.5" som försörjs av USB-porten så är det den korta USB-kabeln som gäller - alltså den som är max 2 dm och oftast medföljer den köpta disken - kör man på 1m - 2m USB-kabel så får man skylla sig själv om disken börja har svårigheter med både läs och skriv och rentav tappad data och att antal reallokerade sektorer ökar i hög takt.

Jag skulle tro att det är många 3.5" som bytts i onödan som i grunden beror på att spänningen dippar för mycket pga. otillräckligt/torkande kondingar och halvtaskiga kontakter vid och i nätaggregat ger spänningsdipp när disken arbetar både på motorsidan, läsarmsörelser och på logiksidan. Dålig reglering (pulsrespons) av spänningen i nätaggregatets regler-loop vid plötsliga laständringar kan förvärra situationen ytterligare då billigare nätaggregat inte alltid reglerar 3.3V och 12V separat utan åker på parallella lindningar i trafon med 5V-regleringen vilket kan ge överslängar och underslängar spänningsmässigt på 12 ocb 3.3V vid plötsliga laständringar på 5V sidan. Nätaggregat är punkten där man sparar så mycket kostnad som det bara går och har låg uppmärksamhetsnivå när det gäller kvalitet på köpsidan och därmed kommer ibland undan med rent ursla konstruktioner då problemen i nätaggen döljs genom att följdverkan är av indirekt natur som diskar som börja ha fel på sig för tidigt...

Och av er som som får upprepande problem även efter diskbyte så är det mer än disken själv man skall misstänka som är roten till problemen som otillräcklig reglerad kraft till diskarna - den andra faktorn som också påverkar är hur mycket vibrationer både av rotation och läshuvudsarbete som påverka de andra diskarna i disk-setet

Om det är stumt och vibrationer sprider sig i hela chassiet/racken (och då brukar vara ganska ljudlig/störande i tyst miljö) eller om det dämpas ut med olika arrangemang i varje disk-slot.

Serverdiskar är mer tåliga för vibrationer som kommer från granndiskarna än rena konsumentdiskar - både att servosystemet i serverdiskar lär sig återkommande rörelser och förkompenserar för detta men också att lagren för läshuvuden har kvalitet att det tål att hela tiden darra på mikrometernivå för att kompensera vibrationer utan att det blir pitting och andra slitage i lagerbanorna för att det står på samma ställe och darrar under långa perioder inom tänkta drifttiden eller har strategi att det flyttar runt huvudet postionsmässigt ofta vid tomgångsdrift.

Permalänk
Medlem
Skrivet av Spiffman:

"Sir, HGST diskar vägrar gå sönder och våra diskar ser ut som skit..."
"Det är fan inte OK, Köp bolaget och lägg ner det omedelbart!"

Sitter med HGST varav en faktiskt failat och jag vill köpa en ny, OTUR.... Jag är inte bitter

Grät en liten tår när jag först läste att WD köpte upp HGST. Sitter med ett par HGST MegaScale DC 4000.B (HMS5C4040BLE640 i statistiken) in min NAS och vet inte riktigt vad jag ska ta mig till den dagen de börjar lägga av.

Visa signatur

Dator: ASUS Pro WS X570-Ace - Ryzen 5 3600X vattenkyld - 4x8GB GSkill Ripjaws V 3600MHz - PNY GTX 980 Ti XLR8 OC vattenkyld - ASUS Xonar DX - Corsair Force MP600 1 TB - Corsair AX750 - Fractal Design Define S
NAS: Synology DS716+ - 2x4TB HGST MegaScale DC 4000.B Router: Netgear R7000 - AdvancedTomato Firmware

Permalänk
Medlem

Verkligheten är att det är numera är HGST-plant som gör WD:s diskar medans deras egna Tandon-fabrik har lagts ned - dvs. de diskar som i grunden var WD-green,WD-blue, WD-red, WD-gold etc. var Tandon-plant diskar men bit för bit ersatts med HGST-diskar bakom etiketten de senaste 2-4 åren - därför får man idag en 7200 rpm WD-red mät fysiskt/akustiskt fast det står 5400 RPM på etiketten och när man frågar efter disk-ID - och WD kommer undan med detta då i databladet står det förutom 5400 RPM också att det står variabel varvtal - inte det som folk tror att disken skulle spinna upp och ned i varvtal beroende på lastläge, utan just att man kan ha olika modeller med olika varvtal inklusive 7200 RPM då det finns ingen HD idag (eller någonsin) som varvar upp och ned i varvtal medans det arbetar med sök, läs och skrivning.

- dock finns det sleep-moder då det kan varva ned en bit i varvtal för att minska förbrukningen en smula - men det är ytterst få miljöer som använder dessa funktioner och framförallt inte i servermiljöer då man inte vill ha stora temperaturväxling (då det är negativt för livslängden) och att läsarmen är ute på skivan mest hela tiden - inte bara för läs och skriv utan också patrolling och leta efter veka sektorer och skriva om dem när man stöter på sådana innan de blir så dåliga att det blir läsfel (gäller dock bara SAS-diskar, ej SATA-diskar)

SATA-diskar som når +80000 timmars drifttid är för det mesta diskar i en bortglömd burk sedan 10 år tillbaka som är igång 24/7 med OS som skriver data då och då mot disken och därmed aldrig hinner parkerar läshuvudet - och serverdiskar kanske har parkerat läsarmen under 200 gånger under sin livstid - främst på grund av omstarter av servern i samband med OS och mjukvaruinstallationer i början.