Skrivet av HolyFather:
Men det känns som att man betat av det här med lagring och rewrites för några år sen, och att SSD bara blir bättre när kapaciteten ökar och att jag inte tror man kan göra samma case för HDD längre.
Tyvärr är det inte så enkelt. Allt eftersom SSDerna har blivit större, eller rättare sagt, NAND kretsarna har blivit större, så har kvaliten på dem faktiskt blivit sämre och sämre. Man har kompenserat det genom att ha bättre ECC och större diskar (så att lägre P/E inte spelar roll).
Skrivet av xxargs:
Moderna hårddiskar och SSD har liknande felrättningsalgoritmer - numera LDPC. innan dess Viterbi tillsammans med Reed-Solomo och innan dess bara Reed-Solomo på liknande sätt som DVD-skivors felrättning fungerar (dock inte med lika mycket marginal som DVD). Det man också har gjort är att de fysiska blocken som skrivs/läses är betydligt större än sektorstorleken som visas på SATA-gränssnittet.
Hmm. Jag det vore ju logiskt att de borde få bättre nivå med tiden, men problemet är att LDPC fungerar bra i teorin, men det ger prestandaförluster rätt fort om det behövs så ofta som det verkar göras idag.
Problemet är dock fortfarande att en HDD kan inte flytta om en defekt sektor, tills du som användare skriver till sektorn, vilket en modern SSD kan och gör med sin GC rutin. Så trots samma ECC nivå, så rättar SSD själv sina fel med GC, medan HDD gör inte det. Det enda LDPC gör på en HDD är att ger dig "20 extra försök" (som du själv säger)...
Skrivet av xxargs:
När SSD börja bli trög att läsa på 'gamla sektorer' som tex. Samsung 840EVO (där man inte skyfflade om datat i bakgrunden som alla trodde till en början) så är det indikation att LDPC-algoritmen börja snurra någon eller några varv i avkodningen tills datat blir rätt. Förbättringen av 'suddiga' datat sker mest dom första varven när LDPC-algoritmen arbetar och når den uppemot 20 varv innan rätt 'svar' så är datat i stort sett ej räddningsbart.
frågan att ställa är om avläsningshastigheten mer än halveras efter ett halvår på tex. sagda 840EVO, hur är det då efter 1 år, 2 år - trots att SSD har ström över hela tiden, hur nära gränsen är det när datat inte är räddningsbart längre.
Även om i teorin så kan detta stämma generellt på LDPC SSDer, så är 840 EVO inte en av dem, då den inte har LDPC. 750 EVO har dock...
Det kan mycket väl vara så att de har kodat in det i den nya FW, det vågar jag inte svara på, men ursprungliga 840 EVO hade inte denna ECC nivå. 850 EVO har den inte heller, då den behöver den inte dock... för sina 2000 P/E, vilket säger en hel del om det NANDet vs tex Intel/Microns nya 3D NAND som hade 500 P/E utan LDPC och ca 1500 med. (Och varför MX300 och 600p är lika mycket skräp diskar som många 2D NAND TLC diskar)
Skrivet av xxargs:
har själv sagda SSD och det blev rejäl skillnad i läshastighet när man äntligen kom ut med firmware som löste problemet med att inte flytta runt 'gammal' data och den vägen fräsha upp 'datat' i flashcellerna.
Disken hade faktiskt denna funktion sedan tidigare, men det krävdes att man nådde nära oläslighet för att trigga det, och den var verkligen inte effektiv. Tittar man dock på en modern SSD med liknande problem som trots detta har LDPC, tex MX200, så verkar den förlita sig hårt på att justera och låta LDPC jobba nästan konstant, innan den skriver om, vilket gör att du kan lätt nå ca 100MB/s snitt läshastighet, snabbt.
Så LDPC är en bra teknik, men den är sin egen värsta fiende då den används på dumt sätt. Den ska användas för att hantera få och små fel så att ingen data korrupteras, men istället så används den till att göra billigt skräp NAND till "okej", med krafig prestanda dropp som resultat, samt att när den väl blir äldre lär den ha enorma faror med att ligga strömlös länge, då felen kommer accelerera.
Skrivet av xxargs:
Inom IC jobbar man för fullt på att få feature-upplösningen under 10 nm (siktar på 7 nm) men det är inget som är i produktion idag, featureupplösningen berättar hur smal den minsta ledaren kan blir, vilket innebär att strukturerna som tex. bygger upp en flashcell är betydligt större än 10 nm och tillverkarna räddar sig på att cellen kan hålla flera analoga nivåer (MLC och TLC-celler) och nu börja man bygga i 3D med lager efter lager (man är väl uppe i 48 lager idag) på varandra.
Men att bygga lager efter lager är inte felfri process och dyrt då samma kiselbit skall läggas på fotoresist och belysas, etsas och joninplantera/lägga på metall/amorft kisel varv efter varv kanske uppemot 200 gånger för en 48 lagers 3D-flashminne - det blir fel på olika delar i varje lager och måste kompensera med reservminne och logik som kan ersätta de trasiga delarna och detta kan lätt växa exponentiellt med antal lager om man inte har väldigt lågt felutfall redan från början. - man räddar sig ett tag med 3D-byggande, men det går inte att göra det hur länge som helst då kostnaden per bit kisel skenar ju fler lager som läggs på i tillverkningen.
Du borde titta på Toshibas/Sandisk(WD) nya 3D NAND. De har löst en hel del problem med staplingen, och verkar utan problem "börja" med 64-lager, och har inget tak i sikte.
Skrivet av xxargs:
Visst moderna snurrdiskar har allt mindre marginaler - men tittar man på 2 och 4 TB diskarna som funnits ett tag så verkar inte risken för dataförlust vara överhängande även om man bara 'tittar till' diskarna vartannat år eller så.
Du säger det, men som sagt, faran med tex LDPC ECC nivå är att tillverkarna kan pressa gränserna hårdare, och större diskar som 6-8TB har bara fler plattor. Det är dock samma lagringsteknik under huven, och samma marginaler sett till lagringstäthet och fel.
Så jag tror dig när jag sett dem ligga 4+ år. Har en 3TB disk som legat över 1 år nu, som jag tänkte vänta lite till på, innan jag själv läs testar den.
Skrivet av xxargs:
och är det viktig data så har man data ändå på minst två fysiskt olika ställen vilket gör att den ena kan täcka upp för den andre om det börja vara läsproblem.
Det gäller ju all data och alla typer av enheter. Problemet är att om datan som ligger på dem är lika gammal, på likadana enheter, så har båda risk för samma problem. Så detta är relativt irrelevant i denna diskussion imho, då det är rätt självklart och opåverkat av mediet.
Skrivet av xxargs:
Jag skulle säga att problemen är större på tex. USB/SATA-konvertern på 3.5" externa diskar att det är dom delarna som går sönder före innan själva den fysiska snurrdisken börja uppvisa problem.
Det håller jag helt med om. Men det går ofta att antingen ordna en ersättnings strömadapter eller ta ut disken i sätta i dem direkt i datorn. Finns undantag dock, med de som har USB kontrollern direkt löddad på HDDn...
Skrivet av xxargs:
Problemet är att USB/SATA-konvertrarna i färdiga externa diskar börja ha dels sektoromvandling mellan 512 Byte - 4kB för att hantera 2TB som många BIOS begränsar sig vid om disken 'bara' har 512-bytes sektorer - alla vill/kan inte köra UFEI-läge på sina bios.., vilket kan knöla till det rejält om man plockar ur den fysiska disken för att USB-gränssnittet inte fungerar. och filsystemet antar 4 kB sektorer när den pratar med USB-konvertern men själva disken använder bara 512 bytes-sektorer, själva HD går att använda länge än - men datat som skrevs medans den satt i externdisk-kapslingen kanske inte är enkel att läsa ut när man läser disken ensam.
...och som du säger, de är inte alltid standardiserade, vilket kan ställa till det som F.
Skrivet av xxargs:
Det som också kommit på senare tid är att datat också krypteras när det passerar USB-gränssnittet in mot disken (gäller främst 2.5" diskar) vilket gör att när USB-interfacet av någon anledning går sönder så kan man inte läsa ut någon begriplig data när man läser direkt från snurrdisken i en diskvagga fast det inte är något fel på denna - däremot kan an använda denna i en diskvagga och senare att lagra ny data på disken utan problem.
Detta var nytt för mig dock. Låter lite idiotiskt att kryptera det då enheten själv avkrypterar allt ändå.