Vad händer med StoreMI över tiden.

Trädvy Permalänk
Avstängd
Registrerad
Mar 2019

Vad händer med StoreMI över tiden.

Det finns mängder med test av StoreMi där man visar fördelarna, åtminstone de som finns i början.
Jag under om någon kan svara på vad som händer över tiden.
Vad jag menar är följande.

1 Hur fungerar StoreMi när utrymmet börjar på bli välutnyttjat. Låta säga fyllt till 70%+?

2 När flyttas data FRÅN den snabba delen till den långsamma. (Det omvända, när dom flyttas till den snabba finns mängder med info om). Dvs hur länge ligger data kvar på den snabba enheten och vad styr förflyttningen till den långsamma?

3 Defragmentering av HD.
StoreMi ses ju av win 10 som en SSD med trim kommandon och defragmentering ska inte göras. Innebär inte detta att den långsamma enheten övertiden riskerar att bli väldigt defragmenterad och därmed väldigt långsam. Dvs jag får en del med data (läsning från snabba enheten) som förblir snabb men det som ligger på den långsamma enheten blir å andra siden mycket långsamt över tiden på grund av defragmentering. Någon som vet vad som sker över tiden?

Trädvy Permalänk
Medlem
Registrerad
Aug 2016

2. ser ut som att datat flyttas mot långsammare media först när när det börja bli brist på plats i SSD för data som bedöms av algoritmen har högre prioritet.

Av det så tolkar jag att den långsammare lagringen och den snabbare måste följas åt och om någon av dessa går sönder så har man kraschad filsystem varav delen som är långsam lagring går sönder så kanske det inte märks direkt men efter ett tag då alla vilande skrivningar inte kan utföras mot den långsammare lagringen och begäran om block som inte finns på SSD men finns på långsamma lagringen inte kan effektueras.

bcache som används under linux så har jag för mig att det synkar mot disk/långsammare lagring ganska så fort efter en skrivning (parametrar som det går att skruva på om man vill), men även där finns ju risken i en kort stund att det som filsystemet tror är skrivet - har inte landat på de långsammare diskarna ännu och det kan bli problem om SSD plötsligt tas bort/går sönder i processen - och så kan man gå vidare till HBA med batteribackuppad minne - även där finns det risk för glapp vid problem då filsystemet har fått klartecken att allt är OK innan datat verkligen har landat på volymlagringen...

Samma sak som när man slår på skriv-cachen på snurrdiskar, att det ger kvittens att datat är lagrat innan det egentligen är det... - och allt är ju för att jaga snabbhet på bekostnad av säkerhet.

3. eftersom datat verkar ligga kvar i SSD tills det blir nedknuffad mot snurrdiskarna först när högre prioriterad data begär plats så kommer förmodligen en defragmenterings-session inte att fungera alls eller väldigt illa om det uppfattas som prioriterad data och det tar tid innan det migrerar ned till den långsammare lagring. beror säkert också på hur mycket som flyttas runt också.

Trädvy Permalänk
Avstängd
Registrerad
Mar 2019

Att risker finns om en disk går sönder kan jag leva med. Tänker man använda det för lagring av viktiga data tror jag att StoreMI går bort helt.
Vad jag tittar på är prestanda över tiden. Om vi då utgår från att data ligger kvar tills plats behövs borde det göra att den snabba enheten är mycket välfylld efter ett tag och långt ifrån alla SSD är ju snabba när dom börjar på bli fulla. Lägger man till att även snurrdisken blir långsam på grund av fragmentering så blir det nog lite nja. Förutsatt dessa antaganden är rätta då.

Trädvy Permalänk
Medlem
Plats
-
Registrerad
Jul 2002
Skrivet av Ebert:

Att risker finns om en disk går sönder kan jag leva med. Tänker man använda det för lagring av viktiga data tror jag att StoreMI går bort helt.
Vad jag tittar på är prestanda över tiden. Om vi då utgår från att data ligger kvar tills plats behövs borde det göra att den snabba enheten är mycket välfylld efter ett tag och långt ifrån alla SSD är ju snabba när dom börjar på bli fulla. Lägger man till att även snurrdisken blir långsam på grund av fragmentering så blir det nog lite nja. Förutsatt dessa antaganden är rätta då.

Jag tror att fragmenteringsdelen har lite påverkan i detta fall.
Förr när man bara körde mekaniskt så kanske det fanns ett anledning till att defragmentera. När du kör SSD eller hybrid så är tidskillnaden så liten för en hårt fragmenterad disk jämfört med en helt defragmenterad disk.

.:Wks: Cooler Master Silencio 650|Core i5 3570 3.4 GHz|Asus P8Z77-V|8 GB| GT 465|1xDell U2311H, 2xAlienware AW2210 2xEizo 19|OCZ Revo 3 Drive 120 + Raptor 150:.
.:Server: Har ett gäng :) :.
-Learn the system, Play the system, Break the system-

Trädvy Permalänk
Avstängd
Registrerad
Mar 2019

@Mr_Lazy:
Att det med en ssd inte spelar roll. Givetvis. Hybrid.. Ja så länge merparten läses från snabba delen.
Men min fundering är läsning från den del som INTE ligger på snabba enheten. Dvs när den mekaniska disken inte kan få hjälp av en snabb enhet utan läsningen sker från den mekaniska enheten. Windows degfragmenterar ju i dag en mekanisk disk men den funktionen stängs ju av med StoreMI då Windows ser combon ssd+ mekanisk som en ssd och kör "trim" i stället. Hur ofta den faktiskt enbart kommer läsa från mekaniska delen och blir givetvis olika beroende på vad man använder den till. Men när den läser bara från den mekaniska så med en grymt fragmentartad disk så lär det bli långsamt? Förutsatt att den blir hårt defragmentera. En hybrid, mekanisk med läs skriv chase har nog inte problemet utan det är nog enbart så som StoreMi fungerar (det skapas ett större gemensamt utrymme) som frågan är aktuell?

Trädvy Permalänk
Medlem
Plats
-
Registrerad
Jul 2002
Skrivet av Ebert:

@Mr_Lazy:
Att det med en ssd inte spelar roll. Givetvis. Hybrid.. Ja så länge merparten läses från snabba delen.
Men min fundering är läsning från den del som INTE ligger på snabba enheten. Dvs när den mekaniska disken inte kan få hjälp av en snabb enhet utan läsningen sker från den mekaniska enheten. Windows degfragmenterar ju i dag en mekanisk disk men den funktionen stängs ju av med StoreMI då Windows ser combon ssd+ mekanisk som en ssd och kör "trim" i stället. Hur ofta den faktiskt enbart kommer läsa från mekaniska delen och blir givetvis olika beroende på vad man använder den till. Men när den läser bara från den mekaniska så med en grymt fragmentartad disk så lär det bli långsamt? Förutsatt att den blir hårt defragmentera. En hybrid, mekanisk med läs skriv chase har nog inte problemet utan det är nog enbart så som StoreMi fungerar (det skapas ett större gemensamt utrymme) som frågan är aktuell?

Jag tror inte att Windows defrag kan hantera den mekaniska disken för den kommer inte ha ett traditionellt filsystem där defrag kan läsa var enskilda filer ligger och således kan den inte heller veta var en fil börjar och slutar.

Du kommer säkert kunna defragmentera StoreMI-volymen men det kommer bara skapa kaos för algoritmen som försöker hålla reda på vilket data som är Hot och vilket som är Cold.

Men som sagt detta är bara vad jag tror och ingen erfarenhet av just StoreMI.

.:Wks: Cooler Master Silencio 650|Core i5 3570 3.4 GHz|Asus P8Z77-V|8 GB| GT 465|1xDell U2311H, 2xAlienware AW2210 2xEizo 19|OCZ Revo 3 Drive 120 + Raptor 150:.
.:Server: Har ett gäng :) :.
-Learn the system, Play the system, Break the system-

Trädvy Permalänk
Medlem
Registrerad
Aug 2016
Skrivet av Mr_Lazy:

Jag tror att fragmenteringsdelen har lite påverkan i detta fall.
Förr när man bara körde mekaniskt så kanske det fanns ett anledning till att defragmentera. När du kör SSD eller hybrid så är tidskillnaden så liten för en hårt fragmenterad disk jämfört med en helt defragmenterad disk.

NTFS är extrem när det gäller fragmentering , speciellt för en viss typ av användning som torrent och utan att köra preallokerade filer, att även en SSD behöver defragmenteras ibland - inte lika ofta som en snurrdisk men kanske någon eller ett par gånger per år.

Det beror på att om en mediafil som består av 10000 extent tar längre tid att sätta ihop till en fil med kanske en krav på minimum garanterad fart än om samma fil består av 7 mycket större extent. Även om SSD kan arbeta väldigt mycket snabbare än en snurrdisk så påverkas inläsningstiden ändå om filerna är väldigt mycket fragmenterade - och en hög fragmentering gör också tex. att TRIM inte fungerar då filsystemet måste frigöra ett antal Mbyte sammanhängande data innan SSD internt kan radera blocket och det räcker med en enda sektor som inte frigörs för att hela blocket skall låsas och inte kan förberedas för snabb skrivning eller att agera som skriv-cache för somliga versioner av SSD.