Jag är väl insatt i hur SSD fungerar i stort, men vad är konsekvenserna av ett kraftigt defragmenterat filsystem på OS-sidan? Det verkat vara stort motstånd att diskutera det
Även om en SSD är gjort för att alla block kan ligga huller om buller så är nog knappast NTFS optimerat för det. Jag tror inte alla tänker på hur seperata världar SSD och filsystemet är.
Ett exempel:
En stor fil i ett fragment i filsystemet (obs jag pratar om OS-sidan här, ej SSD-sidan) blir väl antagligen en läsbegäran till SSD via SATA. Men om samma fil består av 1000 fragment i NTFS, vad blir nackdelarna med det? Jag misstänker att det blir 1000 läsbegäran till SSD, eller? Ködjup i AHCI/SATA är väl 32 anrop? Skapar detta prestandaförsämring någonstans i systemet (SSD, sata-driver, filsystem etc)
Hur påverkas MFT av en mkt stor mängd fragment?
Osv...
Jag påstår inte att det är ett stort problem, men samtidigt är det ett minimalt problem att göra defagmentering på SSD. Och det är olika parter inblandade, rekommendation att inte defragmentera kommer från SSD-tillverkarna för att minimera slitage, konsekvenser på filsystemet är beroende av filsystem som är en helt annan spelare.
Men visst är det trim som är det centrala, det är ju mkt lätt att mäta effekterna av det.