Skrivet av backfeed:
Jepp, och minns jag rätt så var det riktigt låga värden för alla ssd:er i 600P-serien, jämfört med vad Samsung uppgav för sina TLC-ssd:er (om det nu var 850 EVO). Sen kan det förstås vara så att Samsung överdriver, men då får de förstås skylla sig själva och snällt acceptera garantiärenden eftersom de garanterar den TBW de uppgett (så vitt jag vet).
Tillägg: men visst, man behöver skriva en hel del på sin ssd innan TBW blir ett problem på riktigt. Jag har t.ex. bara kommit upp i strax under 14 TB på min 1TB 840 EVO som jag haft i flera år i min huvudmaskin (som ensam lagringsenhet; jag har inte kört hårddisk sedan 2008).
TBW värdena för konsumentdiskar är dock mycket mer satta på vad tillverkarna vill ha för nivå, vs hur bra / dåligt NANDet är. 850/840 har väldigt låg TBW för vad det NANDet klarar, men samtidigt så verkar självurladdning bli ett problem just när TBW ökar.
Och TBW garanteras ju bara till garantitiden har gått ut, så det är eg mest för att skydda tillverkaren mot att du skriver sönder disken och sen försöker få en ny. Samsungs Enterprise diskar använder ju samma NAND som konsument, bara olika blinningar, och där har de ju betydligt högre TBW nivåer, och tom anger dessa med 4k random skrivning (något som ofta många andra anger bara i sekventiell skrivning).
Så stirra dig inte blind på TBW, för det har blivit en form av gimmick för tillverkare att göra en "bättre disk" med fler skrivningar, när det kanske är rent skrytvärden ibland, och de räknar med att de få som går sönder och de måste ersätta ändå ger mer vinst då fler köper denna "bättre" disk.
Imho är det man bör räkna med på en bra SSD idag är 5-10 års användning. Windows updates, ominstallationer, Spel som ska laddas ner/patchas, webbläsare som ska cache-lagra allt osv, räkna vad detta skriver och ta till med marginal. Sen dubbla detta (pga Write amplification factor) och räkna vad du kommer förbruka på säg 10 år. Klarar disken det, lär TBW inte påverka dig, för antingen är disken för liten, eller går sönder pga andra saker inom den tiden. Och skulle den hålla mer, är det bara bonus.
Skrivet av Paralog:
Alltså, det här med antal lagringscykler på block - så fort något ligger permanent lagrat så blir det ju skit av planen med att hålla reda på hur många gånger varje block har skrivits. Operativsystemet och allt annat som installerats sitter ju och blockerar friska block. Vad ska man göra åt det? Försöker man flytta datan fram och tillbaks manuellt så skrivs den ju på samma fina och nästan orörda block.
Är det smart att automatisera en lösning för detta? SSD:n kanske inte borde hålla på och flytta data från friska block till de sämsta blocken när datan suttit stilla länge. Eller ska den det? (Det är varmt! Hjärnkapaciteten är begränsad för tillfället)
Ingen data ligger permanent på en cell i en SSD idag. Utan en sektor i filsystemet pekar bara på en cell i SSDn, och denna pekare kan flyttas när så behövs, utan att det märks verken systemet, programmen eller användaren.
Där finns två saker som får "statisk data" att flyttas om. Ena är när du skrivit mycket data till de lediga cellerna, och kontrollern anser att nu är max antal P/E vs snittet, för högt, så vi börjar rotera de celler som har minst skrivningar. Disken kommer då internt, ta dessa celler och skriva om dem till ett nytt block, varpå de minst slitna blir lediga celler. Detta är en del av diskens interna "Garbage Collection - GC" rutiner.
Du kan läsa en del av detta här: (Med lite grundläggande info om hur en SSD fungerar)
https://www.extremetech.com/extreme/210492-extremetech-explai...
Det andra som sker är vanligt på TLC diskar idag. Cellens information degraderar, och cellen tappar sin laddning över tid. När kontrollern märker att en cell är i dåligt skick, kommer den läsa datan och skriva om den till en ny cell, varpå den andra rensas och är redo för bruk igen. Detta är orsaken varför man inte rekommenderar SSDer att ligga utan ström för länge.
Hur och när detta sker... är en djungel idag. Vissa diskar har strikt kontroll och låter aldrig prestandan falla under en given nivå (som kan vara allt från 250/300MB/s till högre vilket är vanligast). Andra triggar av att den tvingas läsa med software LDPC ECC nivån, och då är data nere på 20MB/s eller lägre, och direkt skrivs om. Vissa tyvärr verkar inte sköta detta bra dock.
Lägg sedan till att Windows i sig, installeras om var 6:e månad numera också, så har du ett sätt till där detta i sig är inte så stort problem, men detta beror ju på vilket OS du har.
Men det som är problem är ju slitaget när du fyller en disk med statisk data. Jag rekommenderar att du aldrig överstiger ca 75% av en SSD max, då när du gör det, ökar slitaget markant. Du kan läsa lite om detta här:
https://www.anandtech.com/show/6489/playing-with-op
Skrivet av sniglom:
Min Intel 80GB X25-M g2 lever fortfarande. Den disken är nu 9 år gammal och har drygt 6.5 år av drifttimmar. Med 17.6TB skriven data blir det 220x 80GB. Hoppas på ett antal år till av drift, då servermaskinen inte behöver större OS-disk.
Men detta är så klart bara en anekdot, frågan är hur länge modernare diskar med TLC samt QLC och på mindre noder kommer klara sig över tid.
Jag har också SSDer från 2008/2009 och liknande som också fungerar som de ska. De tas ur drift inte pga de inte fungerar, utan pga deras storlek är för liten.
Jag har också lite Kina SSDer som med lite cache skrivning har slitits ut, relativt hårt. Enda nådde ca strax under 5000 P/E (MLC) innan den började spotta massor med bad blocks och sedan dog på 2 dagar. Jag har en annan som har otroliga 5300 P/E, och livslängd på 1, men fungerar än. Den har dock haft både läsfel (skadad data) och bad blocks ett tag.
A9 är bad blocks (lite osäker på vad första 4 HEX är, men jag har märkt de i mitten är bad blocks, 0024(HEX) = 36 st.
AD är P/E i RAW data. Sista 4 HEX är snittet 14BA(HEX) = 5300, de 4 vänster om det är max, 1508(HEX) = 5384. SMARTvärdet är 1 och livslängden.
AF är indikation på skrivproblem. SMART värdet ändras när den får problem att skriva till en cell.
Dold text
Detta är hur en SSD åldras och dör, när just antalet P/E går mot dens beräknade livslängd. Förr eller senare kommer disken spotta fler fel än den kan hantera intern, och brickas.
Sett till "TBW" har denna lilla disk gjort 5300*32GB = ca 170 TBW, dvs en nivå som i anger som lägsta nivån i artikeln @Esseboy länkade tidigare. Så det som anses som "skräp nivå" för QLC, är en otroligt hög nivå för MLC... allt beroende på storleken på disken.