Du missade några rader i slutet som kan vara viktiga - förstora alltid rutan så att du är säker på att få med alla rader
vart fall på post 05 verkar du ha fått 1 st reallokerad sektor efter 21000 timmar - inget jag direkt skulle bli upphetsad över då dessa värden bara fylls på när data skrivs på disken och avser alltså sektorer som inte blivit godkänd under skrivprocessen och reallokerats bort - du har alltså inte förlorat någon data.
Det som är mer oroande är post 187 som säger 14 felaktigt lästa sektorer (dvs 14 misslyckande läsningar - inte antal sektorer då det kan vara på samma sektor) och det man skulle vilja se är post 197 (C5h) "count pending sectors" som du inte fick med, om dess värde är stor (mer än ensiffrigt) visar det på flertal sektorer som den bedömmer som "veka" (inte samma sak som fellästa) - och dessa skulle behövas skrivas om med ny skrivning då de antingen blir bra igen (post 197 (C5h) räknar ned mot noll) eller blir reallokerade (dvs att post 05 ökar i antal) .
Sammanfattning:
05 ökar för varje sektor som misslyckas vid skrivning trots upprepande försök och reallokeras - den räknar antal reallokerade sektorer.
187 (BBh) ökar för varje misslyckad läsning som ECC inte kunde rätta (kan vara på en och samma sektor) och kan sedan resultera i att 05 ökar i värde när sektorn sedan skrivs med ny data och om skrivningen misslyckas att det då reallokeras.
Den typen av felläsning bör ge IO-fel på disken och någon program gnölar - om inte, har den ändå på något sätt lyckats rätta data så att det som läses ut från disken har varit felfri. Det med ECC kan vara lite knepigt då detta kan finnas på flera nivåer där om första nivån misslyckas (och försöken räknas i antal) så kan nästa nivå lyckas - tex. med upprepande omläsning och till slut levererar korrekt data ändå..
197 (C5h) ökar för sektorer som 'känns' osäkra vid läsning - tex. när man kör scrub och läser igenom hela diskytan - det innebär oftast inte att man förlorat någon data. Värdet går ned i antal när sagda sektorer skrivs om med ny data.
---
En NAS-programs SMART-kriterie för att varna/larma är inte satt på samma nivå som disktillverkarnas egna - tex. 05-värdet är fortfarande '100' när 1 sektor reallokeras men tröskelvärdet är satt vid '10' (vilket kan vara först vid flera tusen sektorer reallokerats) för att det skall anses fel av garantinivå av disktillverkaren.
Ofta får man köra av tillverkaren deras egna testprogram för att kunna skaffa en speciell kod om det är fel enligt det programmet och omfattas av garanti - inte att en NAS övervakningsprogram larmar då de är satt mycket känsligare.
NAS-övervakningsprogram är överkänsliga och larmar tidigt för minsta ändring är att man erfarenhetsmässigt vet att diskar som börja visa problem tidigt (men 21000 timmar är inte tidigt) - fortsätter att ge mer problem ganska fort med tiden men det gäller inte alltid och disk med 1-2 reallokerade sektorer tidigt i sin livstid kan hålla 40 - 80 tusen timmar ändå.
Det man skall titta på är inte att diskar ger fel då och då, utan hur ofta och om det blir mindre tid mellan gångerna - dessvärre brukar inte övervakningsprogrammen vara designade för detta utan hoppar högt och skriker katastrof vid redan första felet.
Diskar är bundna att få enstaka fel då och då under sin livstid av rent 'termodynamiska orsaker' och termisk brus som finns över allt + störningar från tex. strömförsörjning och att det blir ett fel per 1*10^14 bit läst (ungefär 1 fel per 11 TiB data läst) för konsumentdiskar upp till 1*10^16 bit läst (ungefär 1 fel per 1100 TiB läst) för enterprise-diskar är inte mer än vad tillverkarna lovar.
Så är diskar gamla så kommer de ha plocka på sig ett antal fel som tex. att post 05 ökar med enstaka antal, även läsfel som ökat post 01 och liksom 197 med pending sektor (för diskar som främst läses men skrivs lite) - det hör liksom liksom till.
Det man skall ha koll på är om feltakten med nya fel kommer allt tätare med tiden och förbereda för diskbyte och hålla dina backupper tätt uppdaterade - det olyckliga är att med JBOD kan man inte byta disk i disk-set utan man måste tömma den först (eller göra kopior) - byta disken och sedan ladda tillbaka allt igen medans RAID med paritet (RAID1, RAID5/6) så kan man göra diskbyte utan att man behöver tömma RAID:en på data och det självläker när nya disken har monterats in.