Intel 320 80GB nollställt info om antal totala skrivningar till disken

Permalänk
Medlem

Intel 320 80GB nollställt info om antal totala skrivningar till disken

Hej! Jag har en Intel 320 80GB som jag upptäckte idag att den under förra månaden nollställde sig själv gällande hur mycket skrivningar som gjorts till disken. Är det ett tecken på att disken börjar bli dålig? Se dessa två bilder, först från Hard disk sentinel där man kan se när den nollställde sig

Och sen en bild på nuvarande "totala skrivningar" både i Hard disk sentinel, men också Crystaldiskinfo och båda rapporterar samma info

Som sagt, är det något jag ska vara oroligt för? Jag trodde inte disken kunde nollställa detta? Disken har varit på i mer än 2 månader, så det är inte så att den inte haft någon ström

Visa signatur

Stationär PC: Chassi: Phanteks Enthoo EVOLV ATX MB: MSI B550 Gaming Plus CPU: AMD Ryzen 7 5700X Kylning: Noctua NH-U12S GPU: MSI GeForce GTX 1060 Gaming X 6 GB RAM: Corsair Vengeance LPX Black 32GB 3600MHz NVMe: 2st Kingston A2000 SSD: Intel 520 180GB och Intel 530 240GB HDD: WD Green 1TB, Toshiba 640GB samt fler HDD PSU: Corsair RM750X. Mobila enheter Mina Androidenheter och Dell Latitude 5400. Citera om du vill ha ett garanterat svar från mig

Permalänk
Medlem

Det känns som disken gick över 524 287, vilket den kanske klarar av att räkna upp till när den är i drift.
När man bryter strömmen till disken så kanske maxvärdet som den kan presentera blir 64K = 65 536 minus en bit = 65 535.
Det vill säga

65 535 = BIN 0000 1111 1111 1111 1111
65 536 = BIN 0001 0000 0000 0000 0000
524 287 = BIN 0111 1111 1111 1111 1111
524 288 = BIN 1000 0000 0000 0000 0000

Permalänk
Medlem
Skrivet av Robortic:

Det känns som disken gick över 524 287, vilket den kanske klarar av att räkna upp till när den är i drift.
När man bryter strömmen till disken så kanske maxvärdet som den kan presentera blir 64K = 65 536 minus en bit = 65 535.
Det vill säga

65 535 = BIN 0000 1111 1111 1111 1111
65 536 = BIN 0001 0000 0000 0000 0000
524 287 = BIN 0111 1111 1111 1111 1111
524 288 = BIN 1000 0000 0000 0000 0000

Jag har inte brutit strömmen på typ 2 månader. Jag bröt inte strömmen när den nollställde sig. Varför skulle den bara kunna räkna upp till 524 287?

Visa signatur

Stationär PC: Chassi: Phanteks Enthoo EVOLV ATX MB: MSI B550 Gaming Plus CPU: AMD Ryzen 7 5700X Kylning: Noctua NH-U12S GPU: MSI GeForce GTX 1060 Gaming X 6 GB RAM: Corsair Vengeance LPX Black 32GB 3600MHz NVMe: 2st Kingston A2000 SSD: Intel 520 180GB och Intel 530 240GB HDD: WD Green 1TB, Toshiba 640GB samt fler HDD PSU: Corsair RM750X. Mobila enheter Mina Androidenheter och Dell Latitude 5400. Citera om du vill ha ett garanterat svar från mig

Permalänk
Medlem

Jag kan inte se något om att antalet skrivningar har nollställts. Vad som visas på din första bild är ju "Workload Timer", vilket är en timer som enligt Intel endast används i specifika testmiljöer. Och eftersom det är en timer så är det ett av få S.M.A.R.T.-attribut som faktiskt kan nollställas.

Permalänk
Medlem

För att tillverkaren har utvecklar som inte tänker till och för att det är svårt att testa vad som händer efter X antal år.

Men samma typ av fel har förekommit flera gånger med SSD, ibland har de slutat att svar när man passerar mellan 32 767h 32 768h och det har hänt Intel även den gången.

De gångerna har förklaringen varit att de inte kan hantera mer än 15 bitar för drifttid, den 16 (den första 0/1) har en annan funktion.

BIN 1000 0000 0000 0000
BIN 0111 1111 1111 1111

Permalänk
Medlem
Skrivet av perost:

Jag kan inte se något om att antalet skrivningar har nollställts. Vad som visas på din första bild är ju "Workload Timer", vilket är en timer som enligt Intel endast används i specifika testmiljöer. Och eftersom det är en timer så är det ett av få S.M.A.R.T.-attribut som faktiskt kan nollställas.

Ah, hmm... är rätt säker dock på att det skrivits mer än 2TB, den är typ 8-9 år gammal

Visa signatur

Stationär PC: Chassi: Phanteks Enthoo EVOLV ATX MB: MSI B550 Gaming Plus CPU: AMD Ryzen 7 5700X Kylning: Noctua NH-U12S GPU: MSI GeForce GTX 1060 Gaming X 6 GB RAM: Corsair Vengeance LPX Black 32GB 3600MHz NVMe: 2st Kingston A2000 SSD: Intel 520 180GB och Intel 530 240GB HDD: WD Green 1TB, Toshiba 640GB samt fler HDD PSU: Corsair RM750X. Mobila enheter Mina Androidenheter och Dell Latitude 5400. Citera om du vill ha ett garanterat svar från mig

Permalänk
Medlem

Om man läser tillbaka lite så är den typen av buggar med för få bitar i variabler i olika SSD firmware något som kan ställa till med stora bekymmer - fråga HP angående SSD i datorer köpta i offentliga upphandlingar för typ 1-2 år sedan... - samma sak med svindyra enterprise SSD efter några år där man betalat väldigt mycket för lagringen...

Över huvud taget med variabler som är för små och gör modulo till noll eller negativt (signed) igen när det räknat fullt på mängdräknare och framförallt tidsräknare extremt svåra att fånga i olika prover då att vänta i 2-10 år innan de utlöses är inget som görs och krävs oerhört duktiga kod-granskare och verifierare för att hitta dessa i tid. Och även om man hittar dessa i tid så är det svårt att nå ut till alla som köpt produkten och få dessa att uppgradera firmwaren i tid innan det nått händelsen.

Detta gäller också olika OS på 32-bitar som skall hantera filsystem som är större än 8TB (signed 32-bit som räknar 4k-sektorer) eller 16TB (unsigned 32bit) och gör modulo till noll igen helt plötsligt skriver över början av filsystemets partitioner för all adressering över 8/16 TB och man får mycket svårräddade filsystemhaverier (i fallet BTRFS upptäcktes det i mitt fall väldigt tidigt tack vare sin checksumme-koll och går i read only-mode och innehållet oftast räddningsbart med extrahering till nära 100% lyckad återhämtning av filer - men filsystem utan checksumma, ja det är helt annan femma och det kan ha skrivits mycket innan det börja krångla så mycket att någon märker det...)

De flesta filsystemen varnar för att ha större partitioner över 8/16 TB storlek på 32-bitars OS av just anledningen att dessa OS i olika versioner/generationer inte är till 100% avbuggade för sådana här variabelstorleksfel och dyker upp just när man behöver det som minst...