WD Black 4TB SMART data frågor

Permalänk
Medlem

WD Black 4TB SMART data frågor

Upptäckte nyss att en av mina hårddiskar har Read Error Rate börjat gå upp idag, från 0 till 40, samt att för några dagar sedan har den 1 "weak sector found" (som Hard Disk Sentinel kallar det) Current Pending Sector Count som SMART data kallar det. Bild från Crystal Disk Info:

Jag har också kört ett snabbt SMART Diagnostic test med WDs egna program, Dashboard och fick error code 7 men kan inte riktigt hitta vad error code 7 betyder, bild:

Edit: Och i WDs gamla diagnostik program får jag följande fel:

Hur orolig ska man vara? Någon som kan ge en hjälpande hand? Den har 19412 timmars körtid (808 dagar 20 timmar) och 1585 uppstarter

La till en till bild plus text
Permalänk
Medlem

skulle väl säga att det är en mindre varning att den är på gång att lägga ner sen om det händer om 30 min eller om 15 år är svårt att säga men kopiera allt viktigt till en ny disk men du kan fortsätta använda den för oviktiga grejjer utan problem tills den rasar helt.

detta är min älsta disk från ~2006 fortfarande i användning.

den har skrikit om att den håller på att gå sönder iaf minst senaste 5 åren men funkar fortfarande men kopierade allt viktigt på den vid första varning och används nu bara till oviktigt skit som tillfälligt lagras.

Permalänk
Medlem
Skrivet av Rouge of Darkness:

skulle väl säga att det är en mindre varning att den är på gång att lägga ner sen om det händer om 30 min eller om 15 år är svårt att säga men kopiera allt viktigt till en ny disk men du kan fortsätta använda den för oviktiga grejjer utan problem tills den rasar helt.

detta är min älsta disk från ~2006 fortfarande i användning.
https://i.imgur.com/0asyPDU.png

den har skrikit om att den håller på att gå sönder iaf minst senaste 5 åren men funkar fortfarande men kopierade allt viktigt på den vid första varning och används nu bara till oviktigt skit som tillfälligt lagras.

hmm. Ok, även om SMART data testet failar? Vet du varför SMART data testet misslyckas? Misslyckas det verkligen bara för att den har 1 svag sektor? Jag har också en gammal 1TB WD Green från 2009 som rullar på utan problem och har nästan 46k timmars körtid.

Permalänk
Medlem
Skrivet av jnsson:

hmm. Ok, även om SMART data testet failar? Vet du varför SMART data testet misslyckas? Misslyckas det verkligen bara för att den har 1 svag sektor? Jag har också en gammal 1TB WD Green från 2009 som rullar på utan problem och har nästan 46k timmars körtid.

av nån anledning så ger den ju något läsfel vid smart testet så kan vara i princip vad som helst

men bästa är väl att pensionera den från viktiga syslor.
du kan ju alltid använda den till gamla spel eller små spel där SSD inte gör någon skillnad då laddtiderna ändå är typ <1s

min disk använder jag för spelmoddar från nexusmods till div spel iom att moddarna är förnybara från internet om disken skulle rasa.

Permalänk
Medlem

Formatera disken helt och hållet bara så kommer den sluta klaga.
Haft flera diskar som fått samma fel och det verkade bero på att magnetfältet blivit för svagt på delar av disken som blivit orörda en längre tid så skrev över dem helt för att "stärka" dem igen.

Permalänk
Medlem
Skrivet av reaperishere:

Formatera disken helt och hållet bara så kommer den sluta klaga.
Haft flera diskar som fått samma fel och det verkade bero på att magnetfältet blivit för svagt på delar av disken som blivit orörda en längre tid så skrev över dem helt för att "stärka" dem igen.

Ja, det var det jag hade tänkt o göra gällande svaga sektorn. Däremot går väl inte Read error rate att fixa på samma sätt?

Permalänk
Medlem

S.M.A.R.T-varningar är alltid skarpa, då det är enhetens firmware som detekterar att disken inte klarar att upprätthålla korrekta driftsförhållanden. Gambla med din data om du vill, men disken är påväg att fallera och nu har du blivit varnad.

Har själv sett enheter som fått sina första S.M.A.R.T-varningar och slutat fungera helt samma dag, till såna som gått i åratal, så det finns inget sätt att bedöma hur länge det kommer att ta baserat på antalet.

Du har för övrigt så många uppstarter att du antagligen passerat det antal som enheten är designad för, så du är nog ändå ute på okänt territorium beträffande hur länge den håller.

Permalänk
Medlem

Du har bara en pending sektor och inga reallokerade sektorer. - det är inget problem man behöver bryr sig om

Det som sticker ut är att du har bara 12 timmar körtid per diskstart och det är inte bra då temperaturväxlingarna som blir med detta kommer att förkorta disken livslängd i antalet aktiva drifttimmar gentemot disk som är avstängd långa tiden som tex. undanlagt extern USB-disk för backup som kan fundera långt över 10 år eller en alltid aktiv disk i en NAS där disken går i 24/7 och först efter 40-50 tusen timmar börja räkna med högre risk för någon diskhaveri i en lite större RAID (för enterprise-diskar modell dualport SAS och 10 och 15 krpm så är det snarare > 80000 timmar)

Pending sektor försvinner när sektorn i fråga skrivs över med ny data och antingen lyckas det helt och räknarvärdet blir 0 igen eller om sektorn har problem så reallokeras den och räknarvärdet på post 05 ökar ett steg när pending sektor går mot noll igen

---

Jag har 'renoverat' WD-HD som skriker på alla kanter inklusive WD egna testmoder med att man tömmer disken på data (då precis allt skrivs över) - i lämplig linuxhink med disken ansluten via SATA eller via en bra och välprövad USB-docka

- I linux och linux-terminal (och som root) titta med 'lsblk' vilken enhetsnamn din inkopplade disk fick [1] - när man konstaterat vilken enhetsnamn disken fått (tex 'sdb') så gör man en sektor 0 till sektorslut-skrivning med '0' av hela disken med förslagsvis

"dd if=/dev/zero of=/dev/sdb bs=1024k status=progress"

Är disken stor (8-16TB) så kan skrivningen ta halv till hel dygn och det slutar alltid med ett felmeddelande att det inte kan skriva mer.

Den här metoden att skriva från sektor 0 till sektor slut med bara '0' har räddat många krångel WD-diskar och innan dess tom. att de hänger sig vid läsning och testning med WD:s egna program och fallerar där - efter ovan nämnda noll-skrivning fungerar helt utan fel även med WD:s tesprogram och disken kan hålla många år till.

Varför fungerar det så bra med detta - tja, vid skrivning av data så tittar det inte på vad som fanns innan (vilket testmoderna gör) och var spåret för vingligt (tex. efter en mekanisk stöt under skrivning) och det senare läses som vek sektor (aka. pending sektors) - så kommer den nya skrivspåret att köra rakt över det gamla och förhoppningsvis rakare, och moderna diskar verifierar alltid skrivningen med läshuvudet några hundra nanometer strax efter och blir det för dålig så skrivs sektorn om igen - OBS det är BARA i samband vid skrivning som en sektor skrivs om igen om det blir av för dålig kvalitet på SATA-diskar - aldrig senare hur dåliga de än är - det är bara SAS-diskar som skriver om veka sektorer så fort de upptäcks (och det gjorde det redan på SASI/SCSI-tiden).

Det finns dock en sak att hålla i bakhuvudet för WD-green typiskt sittande i WD-book och WD-element typiskt köpt 2010 - 2015 eller så - börja de ha värmeproblem så är det slutet för disken - dvs. vid läsproblem eller andra hickup efter att disken har varit igång en stund men fungerar när disken är kall/kyld/nystartad så är det bara att pensionera dem till elektronikåtervinningen... detta är ofta följden av att man kört sleep-läge och disken har startat och stoppat väldigt många gånger med kort körning per gång, ja, samma användarmönster som TS disk indikerar gör i antal starter och antal drifttimmar (dvs. typisk 12 timmar per start) vilket är nära på den värsta driftmönster man kan utsätta en disk för då det kommer vara uppåt 4000 kallstarter när disken nått 45000-timmar (vilket brukar vara gränsen när WD-green diskar börja fallera i allt högre takt, och tidigare med denna start och stoppmönster och felen kan komma redan efter 30000 timmar) - det är som beräknade livslängden för flygplan - det är antal starter som räknas... - diskar som aldrig stängs av - typiskt bortglömda datorer på kontor och industri och går i 24/7 - brukar ofta passera förbi 80000-timmar utan problem och det på diskmärken som Seagate och det är dessutom vanliga desktopdiskar i de flesta fallen...

[1]
Det skall göras varje gång innan nästa kommando då det kan bli olika ordningar mellan diskarna vid varje start/boot eller inkoppling med USB - det har med PCIe-systemet och dess BIOS på moderkortet som styr detta, inte någon OS, då ordningsföljden på enheterna redan är satt när OS startar upp)

Permalänk
Medlem
Skrivet av xxargs:

kommer vara uppåt 4000 kallstarter

Nu är det generellt mycket svårare att hitta white papers på sentida konsumentenheter, men det är som du påpekar sällan antalet drifttimmar som är problemet utan antalet kallstarter. Sist jag kollade så var konsumentenheter genomgående typiskt certifierade för så lite någon enstaka kallstart per dag under enhetens garantitid, så om någon ska vara garanterad för 4000 kallstarter så snackar vi 10+ års garanti.

Permalänk
Medlem
Skrivet av Sveklockarn:

Du har för övrigt så många uppstarter att du antagligen passerat det antal som enheten är designad för, så du är nog ändå ute på okänt territorium beträffande hur länge den håller.

Menar du att 1585 eller 3322 (beroende på om det är ID 04 eller 0C du pratar om) uppstarter är mycket? Min WD Green från 2009 har 3405 Power Cycle Count eller 10719 Start/Stop Count och inte ens det känns jätte mycket. Jag har inte hört om någon gräns för antal uppstarter, däremot antal Load/Unload Cycle att det brukar vara 300k som tillverkaren satt som gräns.

Skrivet av Sveklockarn:

S.M.A.R.T-varningar är alltid skarpa, då det är enhetens firmware som detekterar att disken inte klarar att upprätthålla korrekta driftsförhållanden. Gambla med din data om du vill, men disken är påväg att fallera och nu har du blivit varnad.

Jag får dock ingen SMART varning ifrån BIOS när jag startar datorn, bara om jag kör ett själv-test, man brukar väl få en varning i BIOS om hårddisken själv tycker att den håller på o dör? Hade jag inte kört något hårddisk övervakningsprogram så hade jag inte vetat om detta.

Skrivet av xxargs:

Du har bara en pending sektor och inga reallokerade sektorer. - det är inget problem man behöver bryr sig om

Det som sticker ut är att du har bara 12 timmar körtid per diskstart och det är inte bra då temperaturväxlingarna som blir med detta kommer att förkorta disken livslängd i antalet aktiva drifttimmar gentemot disk som är avstängd långa tiden som tex. undanlagt extern USB-disk för backup som kan fundera långt över 10 år eller en alltid aktiv disk i en NAS där disken går i 24/7 och först efter 40-50 tusen timmar börja räkna med högre risk för någon diskhaveri i en lite större RAID (för enterprise-diskar modell dualport SAS och 10 och 15 krpm så är det snarare > 80000 timmar)

Pending sektor försvinner när sektorn i fråga skrivs över med ny data och antingen lyckas det helt och räknarvärdet blir 0 igen eller om sektorn har problem så reallokeras den och räknarvärdet på post 05 ökar ett steg när pending sektor går mot noll igen

Hur ser du på mina bilder att jag bara har 12 timmars körtid per diskstart? Jag kan inte se någonstans att det står det.

Skrivet av xxargs:

Det finns dock en sak att hålla i bakhuvudet för WD-green typiskt sittande i WD-book och WD-element typiskt köpt 2010 - 2015 eller så - börja de ha värmeproblem så är det slutet för disken - dvs. vid läsproblem eller andra hickup efter att disken har varit igång en stund men fungerar när disken är kall/kyld/nystartad så är det bara att pensionera dem till elektronikåtervinningen... detta är ofta följden av att man kört sleep-läge och disken har startat och stoppat väldigt många gånger med kort körning per gång, ja, samma användarmönster som TS disk indikerar gör i antal starter och antal drifttimmar (dvs. typisk 12 timmar per start) vilket är nära på den värsta driftmönster man kan utsätta en disk för då det kommer vara uppåt 4000 kallstarter när disken nått 45000-timmar (vilket brukar vara gränsen när WD-green diskar börja fallera i allt högre takt, och tidigare med denna start och stoppmönster och felen kan komma redan efter 30000 timmar) - det är som beräknade livslängden för flygplan - det är antal starter som räknas... - diskar som aldrig stängs av - typiskt bortglömda datorer på kontor och industri och går i 24/7 - brukar ofta passera förbi 80000-timmar utan problem och det på diskmärken som Seagate och det är dessutom vanliga desktopdiskar i de flesta fallen...

Min WD Green 1TB från 2009 fungerar alldeles utmärkt, 46k timmars körtid och power cycle är över 3k gånger. Jag stängde dock av den aggressiva strömsparfunktionen där den stängde av sig efter 8 sekunders inaktivitet för många år sedan, ungefär samtidigt som jag tog ur disken ut det externa kabinettet och stoppade in disken i datorn istället.

Permalänk
Medlem
Skrivet av jnsson:

Menar du att 1585 eller 3322 (beroende på om det är ID 04 eller 0C du pratar om) uppstarter är mycket? Min WD Green från 2009 har 3405 Power Cycle Count eller 10719 Start/Stop Count och inte ens det känns jätte mycket. Jag har inte hört om någon gräns för antal uppstarter, däremot antal Load/Unload Cycle att det brukar vara 300k som tillverkaren satt som gräns.
Jag får dock ingen SMART varning ifrån BIOS när jag startar datorn, bara om jag kör ett själv-test, man brukar väl få en varning i BIOS om hårddisken själv tycker att den håller på o dör? Hade jag inte kört något hårddisk övervakningsprogram så hade jag inte vetat om detta.
Hur ser du på mina bilder att jag bara har 12 timmars körtid per diskstart? Jag kan inte se någonstans att det står det.
Min WD Green 1TB från 2009 fungerar alldeles utmärkt, 46k timmars körtid och power cycle är över 3k gånger. Jag stängde dock av den aggressiva strömsparfunktionen där den stängde av sig efter 8 sekunders inaktivitet för många år sedan, ungefär samtidigt som jag tog ur disken ut det externa kabinettet och stoppade in disken i datorn istället.

Jag tog överkanten till höger med 1585 uppstarter och 19412 drifttimmar med 19412/1585 = 12.25 timmar per uppstart.

1585 motsvarar då post 0C, ser man med post 04 med antal spindelstarter så är det ännu värre med 19412/3322 = med 5.8 timmar per start/stop av spindeln.

Det är två faktorer som jag märkt påverkar - det ena är att det är ström alls på kortet, det andra är antal spindelstarter - det senare ger dom stora temperatursvängningarna både motorchip med strömrusningen under start[1] och att hela disken cyklar i temperatur medans det förra kan trigga buggar som timräknare med mera - fråga HP om deras SSD när det blev minustimmar för att att timmräknarvariabel var signed och det blev minusvärde och hela firmware låste sig på disken...

load/unload verkar inte så känsligt på WD-green - jag kom över 4 miljoner och det var inte det som gav upp...

Hårddiskar är som glödlampor - man vet inte hur exemplaret man får i handen kommer att fungera utan det är först när man har stora samlingar i tex. servrar/NAS som efter en tid ger en bild hur länge diskarna fungerar, men ganska klart och det och gäller elektronik generellt att många start/stop, strömpåslag och avslag förkortar livslängden i jämförelse om man har mer konstant och stadig miljö (främst att det inte blir stora temperatur-cyckler) där det antingen går hela tiden eller avstängd långa tider. Kort sagt räkna starter och att de inte blir onödigt för många under disken tänkta livstid.

Princip alla diskar jag har sett som nått eller förbi 80000 timmar i både datorer och mätinstrumet är 24/7-drift diskar där antal starter kan räknas i låga tresiffriga tal och de är inga märkvärdiga Enterprise-diskar utan simpla desktopdiskar i de flesta fallen.

[1] man glömmer aldrig när sådan motordrivchip börja brinna under start av MAXTOR-disk efter typ 1.5 år mer eller mindre dagliga starter... sedan dess undviker jag att starta/stoppa diskar i onödan.

Permalänk
Medlem
Skrivet av xxargs:

Jag tog överkanten till höger med 1585 uppstarter och 19412 drifttimmar med 19412/1585 = 12.25 timmar per uppstart.

1585 motsvarar då post 0C, ser man med post 04 med antal spindelstarter så är det ännu värre med 19412/3322 = med 5.8 timmar per start/stop av spindeln.

Det är två faktorer som jag märkt påverkar - det ena är att det är ström alls på kortet, det andra är antal spindelstarter - det senare ger dom stora temperatursvängningarna både motorchip med strömrusningen under start[1] och att hela disken cyklar i temperatur medans det förra kan trigga buggar som timräknare med mera - fråga HP om deras SSD när det blev minustimmar för att att timmräknarvariabel var signed och det blev minusvärde och hela firmware låste sig på disken...

load/unload verkar inte så känsligt på WD-green - jag kom över 4 miljoner och det var inte det som gav upp...

Hårddiskar är som glödlampor - man vet inte hur exemplaret man får i handen kommer att fungera utan det är först när man har stora samlingar i tex. servrar/NAS som efter en tid ger en bild hur länge diskarna fungerar, men ganska klart och det och gäller elektronik generellt att många start/stop, strömpåslag och avslag förkortar livslängden i jämförelse om man har mer konstant och stadig miljö (främst att det inte blir stora temperatur-cyckler) där det antingen går hela tiden eller avstängd långa tider. Kort sagt räkna starter och att de inte blir onödigt för många under disken tänkta livstid.

[1] man glömmer aldrig när sådan motordrivchip börja brinna under start av MAXTOR-disk efter typ 1.5 år mer eller mindre dagliga starter... sedan dess undviker jag att starta/stoppa diskar i onödan.

Ah. Först o främst, så har inte jag haft denna disk hela dennes liv, utan en vän haft den innan. Jag använder disken vissa dagar 5 timmar, medans andra dagar är den igång 12-14 timmar. Btw, håller på o gör ett "Surface Test" i Hard disk sentinel, där jag valde Disk repair vilket den säger gör följande: "Reads the disk surface to verify if all sectors are readable and forces the disk drive to repair any problematic (pending, weak) sectors: restore the status to good or reallocate (replace from spare area) if required to prevent further use of the original sector." och den verkar ha hittat den dåliga/svaga sektorn, se detta

2021-02-27 15:35:32 ! Error: 23 Data error (cyclic redundancy check)., Sector: 1852898608, Block: 2371
2021-02-27 15:35:34 ! Error: 23 Data error (cyclic redundancy check)., Sector: 1852898608, Block: 2371
2021-02-27 15:35:35 Repair successful Sector: 1852898608, Block: 2371 [0 (0) 0 (0) 0 (0) 0 (0) 0 (0) ]

Däremot tycker inte disken nu efter att den "Repair successful" att den behövde byta ut sektoren, då den, enligt loggen gjort följande: Först upptäckt den svaga sektorn här 2021-02-21 18:23:30,#197 Current Pending Sector Count 0 -> 1 och efter repair successful så gjorde den följande 2021-02-27 15:36:41,#197 Current Pending Sector Count 1 -> 0 och Reallocated Sectors Count är på 0

Permalänk
Medlem

Kopiera över allt till en ny lagringsenhet och lägg denna på hyllan och märkt den som kass. Bra att ha för labb tills den rasar.

Permalänk
Medlem
Skrivet av Veni:

Kopiera över allt till en ny lagringsenhet och lägg denna på hyllan och märkt den som kass. Bra att ha för labb tills den rasar.

Efter ett Yttest så rapporterar den inga svaga eller utbytta sektorer iallafall och även diskens självtest ger OK

Permalänk
Medlem

Personligen tycker jag att det är så litet 'fel' och med omskrivning felet försvann att det är inget att hänga upp sig på - såvida att du har samma data lagrad på annan media också och därmed kan tåla den dagen då disken av någon anledning går sönder detta gäller all lagring, även för media som inte visat några fel ännu!!

SSD kan tex. en dag inte ger någon respons alls helt utan förvarning - har själv råkat på det i en laptop och har provat det mesta i gogglingsbara trix för att återuppväcka denna men SSD är verkligen stendöd och är ändå av respekterad tillverkare (Intel)

Permalänk
Medlem

Kan lika gärna lägga en annan fråga här också. Jag har en gammal Seagate 500GB där Raw Read Error Rate ligger på 137 850 595

och Seek Error Rate på 296 049 703

Någon som kan förklara varför dessa går upp hela tiden? Disken har 20 dåliga sektorer, men det har den haft i minst 7 år och den har legat still på 20 dåliga sektorer dvs det är inget som börjat nu eller att den börjar få mer dåliga sektorer, iallafall inte vad jag kan se i SMART data