Stora diskar tar tid på sig - och de flesta greppar inte i hur mycket data som faktiskt finns på diskar och trots med läshastighet i runda slänga 200MB/s för en 2-siffrig TB disk så tar det ändå upp till ett dygn att gå igenom alltihop bara i rå läsning. Motsvarade diskar på 1990-talet så handlar hela processen om fåtal antal minuter och det med läshastigheter ned till 25-50 del av dagens hastigheter...
---
När man petar i en disk i en NAS med mdadm-RAID så påbörjas synkning mellan diskarna - vilket innebär att varenda sektor kommer att läsas och de allra flesta att skrivas om i synkningen. Detta sker var gång man stoppar in en ny disk och ökar ut RAID med fler diskar då hela Raiden:s alla sektorer måste räknas och skrivas om varje gång.
RAID är heller inte satta att köra med full fart i sin synkning av flera orsaker - ett av dessa är krasst sett av bandbreddsbegränsninga i chippen kontrollogiken, men också för att man skall ha bandbredd kvar att kunna läsa och skriva på disk-arrayen medans den synkar - vilket för varje multi-TB disk man placerar in så skall hela mängden tuggas igenom på samtliga diskar parallellt och det kan gå dygn för det och allt längre tid ju fler diskar i arrayen
Detta i sig är en bra test på (de nya) diskarna och dess status efter leverans eftersom man motionerar hela systemet - men också en risk då man kan hitta problem på de äldre befintliga diskarna som uppkommer/upptäcks först när allt läses och skrivs om igen av den höga belastningen.
Därför är det alltid bra att ha backup på all data på sin NAS vid så 'stora' arbeten som att peta in nya diskar och ha backuppen uppdaterad till den dagen i fall det skiter sig rejält.
En redan väluppsynkad backupdisk (eller array av backupdiskar om det är stora mängder data) går fort att synka (med tex. rsync) och medför väldigt lite last på diskarna i NAS:en.
Medans stoppar man in en ny disk i en RAID - och det börja bli tecken på problem under synkningsförfarandet och först då nervöst i iver försöker rädda all data på diskarna i NAS och öka på lasten ytterligare - ja då har man nästan redan skitit i det blå skåpet...
---
Alla HD är kontrollerade vid fabrik - Dels skall spåren göras från scratch med en speciell aktuator (som säker kostar miljoner styck med tanke att det skall stega i området 75-50 nm per steg) som sticks genom ett hål på sidan och styr läshuvudarmen vid initieringen (främst WD-diskar hade det på sina 1, 2 och 4TB diskar från början av 2000-talet och man ser en överklistrad hål med aluminium-lapp på sidan av diskchassiet), senare modeller så kanske det bara är en sida på skivan som initieras och sedan får disken själv använda den disken som referens för spårningen när disken själv ritar upp spåren på alla andra skivor och sidor. - idag kanske det räcker med en startmarkör på en skivan och resten av uppspårningsjobbet sköter disken själv med sin egen kontroller och smarta algoritmer och det enda som behövs är att vara spänningsansluten under någon eller ett par dygn
Man kan också anta att denna typ av algoritmer som formaterade disken inte är kvar i kontrollen utan ersatts med den tänkta firmware till användarna.
Men hur eller hur, detta tar tid även hos tillverkaren då ytan efter spårningen skall kontrolleras och 'P-list' skall skrivas (P-list = fabriksmarkerade dåliga sektorer som aldrig någonsin används mer och man använder reservsektorer för dem som redan finns på plats på skivorna eller bara hoppar över dom i uppräkningen)
Den senare 'G-list' är sektorer som under användande klassas för dåliga trots omskrivningsförsök och reallokeras och det är den numerärer som i antal sedan syns som antalet reallokerade sektorer och synliga i SMART - 'P-list' med de i original dåliga sektorer är inte åtkomliga med vanliga program och jag tro alla mår bäst att inte veta hur många sektorer som är bortklassade redan från början...
Ingen disk har helt felfria sektorer - på en stor >= 8TB så handlar det säkert om många tiotusentals sektorer som inte håller måttet. (det fanns inga felfria diskar på MFM och ST506-tiden heller, det lägsta jag sett är 3 fel på en 85 MB disk - mellan 20 - 50 sektorer var ganska normalt medans var det flera hundra så började misstankarna komma att exemplaret kanske inte är så bra, dock hade det väldigt liten relation till hur länge disken sedan höll... - när IDE-diskar kom så gömde man snabbt undan de redan vid tillverkningen dåliga sektorerna (som började bli ganska många när diskarna passerade 100 MB-gränsen) och kunde visa upp en 'virtuell' felfri diskyta - och reallokering av dåliga sektorer (men aktiveras endast vid skrivning) vidmakthöll den 'fläckfritt perfekta ytan' tills antalet reallokeringar hade förbrukat upp alla reservsektorer i närområdet där felen yttrar sig (det är oftast inget centralt lager man plockar ifrån utan reservsektorerna är utfördelat över diskytan i omedelbar närhet eller rent av i spåret av aktuella sektorer som krånglar för att man inte skulle få för mycket söktid när reservsektorerna skulle användas - ta en läsning tid så beror det inte på att den letar efter reservsektorer över halva disken som man kanske tror - utan att det gör en ganska stort antal läsförsök på en befintlig sektor som är svårläst inklusive att läsarmen går i 0-läge och söker om för varje läsförsök med durr och ev. knackade ljud...
Testet i SMART är ofta på 3 nivåer - en 'transporttest' som går snabbt att genomföra och är främst se att disken är OK och inte behandlats så illa i transporterna att det blivit lagerskador, böjda armar till läshuvuden eller huvuden har slagits ut på skivan och disken sedan inte vill starta alls - ja, i stort sett för att kolla om det är en DOA eller inte.
Sedan finns det en mellantest där olika mindre områden av diskens yta kollas och kollar insvängninstid och söktid på dess sökningar etc. med jämförelse av värden den hade skapat sig vid fabrik (bl.a parametrar lagrade i eeprommet U12) och där bedömer om det ändrats så mycket att det kan tyda på mekaniska skador
och slutligen den stora testen där allt ovanstående görs och dessutom hela diskytans alla sektorer kontrolleras och mindre bra sådana skrivs om för att kolla att kvaliten blir bra efter en omskrivning, och om inte så reallokeras dem och det syns i SMART. Det testet tar tid eftersom hela ytan skall läsas av och på 10-12TB disk kan ta närmare ett dygn trots kontinuerlig lästakt i området 200 MB/s