Man använder SMR i HGST senaste 12/14TB-diskar också - är de av låg kvalitet då??
Med tanke på att Seagate Achivediskarna var i princip den första disken med SMR som gick ut i volymer (fast HGST var några månader före med detta men ej kompatibel för vanliga datorer och dess diskdrivrutiner och ej fick genomslag) så var dess hantering inte jätteraffinerad när det gällde hantering av många små skrivningar utspridda på diskytan
Archivedisken löste detta med att sådana småskrivningar om disken var upptagen - lades på journal (förvisso ganska stor sådan - över 30 GB, och snabbt gick det också eftersom den inte behövde leta med läshuvudena) för senare utplacering på rätt sektor vid lugnare tidpunkter - problemet var att om den inte fick den lugna stunden inom rimlig tid så blev disken väldigt långsam väldigt tvärt. Detta kunde tex. hända om denna användes i en NAS och synkningen görs i fel ordning (dvs inte skriver med sektorer efter varandra när den sektorspeglar) och andra ogynnsamma skrivmönster.
Den typen av 'stall' ser jag inte alls lika märkbart på de senare 4 och 5TB 2.5 tums diskarna, så där har man förbättrat algoritmerna en del och jag gissar att SMR-diskarna av dagens generation har lånat mycket av teknikerna som används i SSD där man skriver linjärt i rad med logiska reallokeringar fast sektoradresseringen vid skrivning är ganska vild, och sedan vid tid över städar upp det - på samma sätt som SSD-diskar gör, och med skillnad från archivediskarnas strategi , så tar inte den här buffern slut lika lätt.
Skall man packa hårt så kommer man inte ifrån SMR och det kommer inte att förändras när också börja med värme eller microvågsassisterad skrivning heller - huvudvärken för samtliga HD-tillverkare är att man inte kan få skrivhuvudet tillräckligt litet och ändå behålla fältstyrkan till minst 2.4 Tesla i styrka när datat skrivs.
Att man börja titta på värme/mikrovågsassist (och det har man pysslat med i minst 8-10 år) beror på att 2.4T inte räcker för att magnetisera om de allt hårdare magnetkornen på skivan och samtidigt kan man inte öka det mer eftersom det inte finns material som kan leda magnetfält med högre styrka - och därför använder uppvärmning/påverkan av MW för att mjuka upp materialet magnetiskt högst tillfälligt vid skrivning så att de slår om magnetiskt.
Ju mer packat det är ju mer magnetisk energi måste de enskilda kornen i magnetdomänen innehålla för att termodynamiska och kvantmekaniska effekter inte skall få kornen i gränslandet mot andra korn med omvänd magnetism, att tappa eller växla sin polaritet plötsligt (och takten bestäms också av temperaturen - dvs. om vibrationamplituden (pga värmen) i atomgittret tillfälligt nå sådan amplitud och därmed energi att den är högre än magnetiska energin som är lagrad i kornet och det kan då slå om till motsatt polaritet (att slå med hammare på en magnet har samma verkan - magnetismen kan försvinna pga mekaniska chockvågorna i materialet)
- Detta är förstås en statistisk historia där spikarna då och då i bruset är 10 ggr högre än medelbruset, ibland är över 20 ggr högre, någon gång per å kanske 30 ggr över bruset - och det är detta som magnetkornen skall stå emot över tiden så att inte för många magnetkorn i magnetdomänen hinner slå om sig över säg 10 års period och 70 graders värme. - på SSD-minnen har man motsvarande problem att elektroner kvant-tunnlar in och kvant-tunnlar ut ur cellerna genom isoleringen och det är också starkt beroende av värmen. och det blir känsligare ju färre magnet-korn per domän eller elektroner i en flash-cell som försvinner och varje förändring/förlust ger allt större påverkan.