Permalänk
Medlem

Du förutsätter precis som alla andra att wear-level-tekniken fungerar till 100%. Vilket är helt omöjligt i praktiken.

Därför så blir de där 9 åren "upp till 9 år". Vilket likväl kan vara 9 timmar vid "ogynnsam belastning". Vem vet?
Inte vi konsumenter i alla fall.

EDIT:
Men det var ju kul att veta att även korten implementerar någon form av wear-leveling. Problemet är väl att de antagligen är anpassade för att sitta i en digital-kamera eller liknande, vilket kanske inte alls lämpar sig för användning i en dator.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av echo
Du förutsätter precis som alla andra att wear-level-tekniken fungerar till 100%. Vilket är helt omöjligt i praktiken.

Jag tar inget för givet, vi vet alla att en elektisk pryl kan gå sönder typ när som hellst, vilket gäller även en vanlig HD. Vad gäller själva Wear level tekniken så fungerar den alldeles utmärkt, självklart går det att lura tekniken på olika sätt om du har det uppsåtet.

värt att notera är ju också att i mitt räkne exempel utgår jag från worst case, för det finns ju upp till sex till minnen att sprida risken på, dock kan man inte helt räkna så för ingen information ges om vilken styrkrets som används och om den i sin tur last balanserar minnena, så jag utgår från att den inte gör det.

Vi bör även komma ihåg att SD referensen inte alls är gjord för en typ av applikation tex. digitalkamror eller Mp3 spelare utan är en standard för data överföring och inte alls begränsat till minnen.
Men titta gärna in på http://www.sdcard.org/ för en utförlig beskrivning av vad SDHC igentligen är.

får jag bra fatt i en engelsk språkig återförsäljare så skaffar jag lungt den här lösningen för att testa vad den duger till.

Permalänk
Medlem

Det är skillnad på att en teknisk pryl kan gå sönder när som helst och att en teknisk pryl inte tål en viss typ av användning (som dessutom ingen normal användare kan identifiera).

Citat:

Ursprungligen inskrivet av Tera
Vad gäller själva Wear level tekniken så fungerar den alldeles utmärkt, självklart går det att lura tekniken på olika sätt om du har det uppsåtet.

Källa tack...

Citat:

Ursprungligen inskrivet av Tera
Vi bör även komma ihåg att SD referensen inte alls är gjord för en typ av applikation tex. digitalkamror eller Mp3 spelare utan är en standard för data överföring och inte alls begränsat till minnen.
Men titta gärna in på http://www.sdcard.org/ för en utförlig beskrivning av vad SDHC igentligen är.

Tittade, hittade några ensidiga förklaringar om att man rymmer si och så många bilder på ett kort av storlek x, men något vettigt fick jag inte alls ut. Kanske missade det.

Vidare tvivlar jag på att wear-level algoritmen är fastställd och låst i SDHC standarden, särskilt eftersom detta anses vara företagshemligheter för de flesta som gör SSD diskar och att det inte skulle möjliggöra förbättringar.

Men rätta mig gärna om jag har fel, har jag inte fel så innebär det ytterligare problem att hitta kort med vettig algoritm (för isåfall är antagligen de flesta algoritmer anpassade för digitalkameror etc.) och eftersom företagen sällan pratar om detta så blir det inte lätt att välja kort.

Permalänk
Citat:

Ursprungligen inskrivet av Tera
Jag tror vi bör fundera på vad "begränsat antal write cycles" innebär, i dagens SDHC har de flesta Wear Leveling tekniker inbygda i kortet för att garantera ca. 1,000,000 write cycles. så på ett 16Gb minne formaterat till ca. 15.6Gb med en maximal write speed på 55mb/s så tar det ca 284sec att skriva en hel cycle. Det i sin tur blir 3282 dagar, nästan 9år för att bränna all write cycles förutsatt att man constant skrivet till minnet.

Du missar här att det är RAID-0 som gäller i benchmark-testerna. När något skrivs till enheten delas det alltså upp i 6 delar och sedan skrivs 1/6 till vardera minne. Det här för med sig att alla minnen utsätts för lika många skrivningar. Och när det första minnet dör bör oxå (teoretiskt) alla andra minnen dö samtidigt.

Vi kan alltså utgå från 1 enstaka minne, och anta att de andra minnena dör samtidigt.

För att göra en ny räkneövning...

Då Transcends SHDC-minnen användes i nyheten utgår jag från dem. Jag inte vet var du fått siffran 1,000,000 write cycles från (det värdet låter på tok för lågt, och dessutom har det värdet inte samma betydelse som du utgår ifrån). Jag väljer här att utgå från Transcens egna specifikationer. Deras minnen ska klara 10,000 omskrivningar (http://www.transcendusa.com/support/dlcenter/datasheet/TS4~16...) - varje block på enheten klarar 10,000 omskrivningar, när vi skriver om enheten fullständigt skriver vi oxå om varje block, skriver vi om enheten 10,000 ggr skriver vi oxå om varje block 10,000 gr. När alla block på enheten har skrivits om 10,000 ggr anser vi minnet som förbrukat. Det här gäller iof bara i teorin, de är specade att klara -minst- 10,000 omskrivningar, det är därför möjligt att de klarar många fler än så men med tanke på att vi här har 6 stycken minnen så är väl risken stor att enheten förbrukas efter specifikationerna (då RAID-0 beror på att alla minnen ska fungera, och chansen att alla 6 minnen ska klara många fler skrivningar än spec är väl att hoppas på för mycket).

Skrivhastigheten för minnet ifråga är 10.02MB/s
Storleken på minnet är 16GB (=) 16000MB

Att skriva om enheten 1 gång tar 16,000/10.02 = 1597 sekunder

Att skriva om enheten 10,000 ggr tar 1597 x 10,000 = 15,968,064s = /3600 = 4,436h = /24 = 185 dgr

Dvs om vi skriver konstant till enheten i en sekventiell ström är minnet (och därmed enheten) förbrukad efter 185 dagar.

Transcend har inte de snabbaste minnena, enligt prisjakt.nu klarar de snabbaste SDHC minnen att skriva i 20MB/s, jag vet inte hur många omskrivningar de klarar men troligtvis runt 10,000 de oxå. Med dubbla hastigheten går det givetvis dubbelt så snabbt att skriva om enheten, och tiden det tar att ta kål på enheten blir 185/2 = 92dgr. Med reservation för att de snabbare enheterna klarar några fler omskrivningar, även om 10,000 är högt för MLC-baserade.

Detta gäller givetvis bara om Transcend har wear leveling på sina enheter, jag hittar efter en snabb koll ingen information om det, men det här är hju mer en teoretisk övning än praktisk.

Permalänk
Medlem

Jag noterar med viss belåtenhet att vi fått en diskution där flera har skaffat sig mera information i ämmnet

du har helt rätt i att jag inte tog med i beräkningen att det rörde sig om raid 0 i min beräkning, men det bygger på att jag inte kunnat få fram hur dom skapat raid settet? är det en inbygd Raid controller på enheten? är det Moderkortet som tillhandahåller raiden? eller kanske mjukvaru styrd?

att de valt att göra en Raid 0 är ju lågiskt utifrån marknadsförings synpunkt, Raid 0 har hög read/Write samtidigt som den inte förlorar något utrymme, dvs. ser stor ut. Om det är ett MB styrt Raid så borde det gå att köra t.ex raid 1 eller kanske till och med raid 5 men mindre utrymme. är den software styrt då undrar jag vilka andra resurs krav som utnytjas för raiden.

Du får det att låta som om ett minnes block dör så dör hela minnet och därmed även raiden, så funkar det ju inte. Presis som i HDs så finns det error corrections inbygt som motsvarar de på en HD, jag sägger inte att det är fulländat utan bara att det är lika med eller aningen sämre än hos en vanlig HD

Den länken till Transcend är bara en spec över det fysiska minnet inte dess funkion, se nedan i stället.

http://www.cs.ucr.edu/~amitra/sdcard/ProdManualSDCardv1.9.pdf

se section 2.5
här gorde jag ett stort fel, jag misstog MTBF för Write cycles fast i ett annat document där det inte var lika uppenbart. Antalet write cycles är 100,000 och MTBF 1,000,000 timmar. MTBF =Mean time between failures, se http://en.wikipedia.org/wiki/MTBF

I References på wikipedia fins också en massa intresangt information
http://en.wikipedia.org/wiki/Secure_Digital_card

om du tittar igen i
(http://www.transcendusa.com/support/dlcenter/datasheet/TS4~16...)
så ser du att det är Durability:10,000 insertion/Removal Cycles (dvs, hur pas många gånger minnet tål att sättas i/ta ur minnet, längre ner återkommer dom till det i vad dom kallar "mating cycles" samma begrepp som du hittar i SanDisk dokumentet jag länka tillsamans med information om temperaturer, fall höjd och annat som minnet ska klara

så om vi nu gör uträkningen igen i Raid 0 med 6x 16Gb så har vi 2 av varandra oberoende värden att iakta.

I de snabbare SDHC minnena är det inte MLC utan SLC minnen som används.

först Write cycles: 100,000
ca hastighet per minne 55/6=9,1MB/s
formaterat utrymme ca 15600Mb/9,1Mb/s=>1714 (avrundat neråt till närmaste hel tal)sec för att skriva till varje Sector på minet

(((1714*100,000)/3600)/24)=1983,79dar (men så enkelt är det ju inte som vi alla vet)

om vi tar pricipen för MTBF i Raid 0(som inte är perfekt men det man oftast använder innom server/Raid/cluster värden)
se Raid 0 Failure Rate
http://en.wikipedia.org/wiki/RAID_0#RAID_0

MTBF==>1983,79d/6 SDHC=330 dagar av kontuerligt skrivande, samtidigt om man läster på http://en.wikipedia.org/wiki/EEPROM så visadr det en del om de förutsättningar som kan påvärka ett minne negativt som t.ex värme.

räkanar vi iställer på en raid 1 så ser det väldigt anorlunda ut, vi behåller hastigheten men ökar lifslängden till sina ordinarie 100,000 cycles ca5½ år, men eftersom Raid 1 skriver identiskt till 2 eller flera minnen samtidigt så förbrukar vi lika många Write cycles, allt som händer är ar att den svagaste dör först.

wear reduction tekniken ÄR en inbyggd del i SDs standard protokoll, det är dock inte nått man kan hitta nått om på SD protokollets hemsida eller hos te anslutna tilverkarna, någon gång efter 2003 drog man tillbaks mycket av den information som fanns tilljänglig på området varav man inte längre kan hitta det document jag länka tidigare på SanDisks hemsida utan måste söka på andra platser.

Permalänk
Medlem

Jag vet inte men jag antar att det inte är lika vanligt att hela minneskort tvärdör vilket gör att riskerna med raid 0 på minneskort jämfört med hårddiskar minskas drasktiskt. Förlorade sektorer innebär förlorad data oavsett om man köra raid 0 eller ej.

Citat:

Ursprungligen inskrivet av Tera
Du får det att låta som om ett minnes block dör så dör hela minnet och därmed även raiden, så funkar det ju inte. Presis som i HDs så finns det error corrections inbygt som motsvarar de på en HD, jag sägger inte att det är fulländat utan bara att det är lika med eller aningen sämre än hos en vanlig HD

Skillnaden är att en hårddisk inte har samma typ av begränsning vad gäller överskrivningar. Förlorar du ett block för att du skrivigt över det ofta är det stor sannolikhet att du har väldigt många block som är på väg att förbrukas också.

Du verkar inte ha förstått vad MTBF är, http://en.wikipedia.org/wiki/MTBF

Citat:

Ursprungligen inskrivet av Tera
wear reduction tekniken ÄR en inbyggd del i SDs standard protokoll, det är dock inte nått man kan hitta nått om på SD protokollets hemsida eller hos te anslutna tilverkarna, någon gång efter 2003 drog man tillbaks mycket av den information som fanns tilljänglig på området varav man inte längre kan hitta det document jag länka tidigare på SanDisks hemsida utan måste söka på andra platser.

Så utan att veta något så kom du med det här påståendet?

Citat:

Ursprungligen inskrivet av Tera
Vad gäller själva Wear level tekniken så fungerar den alldeles utmärkt, självklart går det att lura tekniken på olika sätt om du har det uppsåtet.

Annars får du gärna informera/länka mer.

Om algoritmen är spikad i SD standarden går det inte att förbättra den, om är det upp till var och en av tillverkarna att komma på med en egen så har vi konsumenter ingen aning om vad vi köper i det avséendet (som det ser ut idag) - och de flesta lär utveckla en algoritm för de vanliga användningsområdet för deras produkter. Alla de fallen innebär en klar osäkerhet om hur det fungerar i praktiken, du har inte lyckats övertyga mig på något sätt att ditt påstående ovan har några belägg alls.

Jag tror inte att wear-level teknikerna inbyggda i dessa kort är anpassade för att användas i en dator som OS-disk. Du får gärna rätta mig men hittils känns det tyvärr som att du inte har någon koll på vad du pratar om.

Permalänk

Ett tips är att läsa källan genom Google Translator...

http://translate.google.com/translate?u=http%3A%2F%2Fpc.watch...

Citat:

Ursprungligen inskrivet av Tera
Du får det att låta som om ett minnes block dör så dör hela minnet och därmed även raiden, så funkar det ju inte. Presis som i HDs så finns det error corrections inbygt som motsvarar de på en HD, jag sägger inte att det är fulländat utan bara att det är lika med eller aningen sämre än hos en vanlig HD

Nej, jag utgick från att man skrev till _alla_ minnes-block på ett fysiskt minne 10,000 ggr, dvs _alla_ minnes-block får anses vara förbrukade. Dock räknade jag som du säger inte med de extra % som tillverkarna må lägga till för "Bad Block Management", där vet jag tyvärr inte hur mycket det rör sig om (kanske är det den mängd som "försvinner" när man räknar enligt HDD-tillverkarna, dvs för 16GB -> 16000 MB = 384MB eller 2%).

Citat:

Ursprungligen inskrivet av Tera
Den länken till Transcend är bara en spec över det fysiska minnet inte dess funkion, se nedan i stället.

http://www.cs.ucr.edu/~amitra/sdcard/ProdManualSDCardv1.9.pdf

Den produkt som används i källan var från Transcend och är baserad på MLC-minnen. Dock finns det som du säger SDHC som använder sig utav SLC-minnen, dock troligtvis till ett högre pris. För SLC-baserade minnen är det troligtvis runt 100,000 write cycles som gäller, så där får man givetvis multiplicera de 182dgr x 10 = 1820dgr. Dock har SLC oxå högre skrivprestanda så man får oxå dividera med hastighetsförändringen. De snabbaste SDHC-minnen kan skriva i 20MB/s, kanske kan det i det fallet röra sig om SLC, så dividera 1820dgr / 2 = 910 dgr.

För att återgå till nyheten är det en intressant produkt. Problemet med en sådan här enhet är dock att man behöver veta lite mer om SDHC-minnen än tillverkarna vill ange i specifikationerna. T.ex. hur stort är ett 'block'* på ett minne? Hur stor är en 'page'*? Dessa två parameter bestämmer hur pass bra enheten verkligen kommer prestera som systemdisk med små random read/write. Även om man slänger på 6 stycken minnen är det inte nödvändigtvis nödvändigt att enheten kommer prestera mycket bättre som systemdisk, överföringshastigheten för stora filer höjs visserligen men prestanda för ?kB block (som än så länge är vanligast i Windows) behöver nödvändigtvis inte höjas samtidigt. Testet visar på en jämn hastighet för random read (4kB), vilket kan förklaras med att page-storleken är >= 4kB. Testet visar på en låg hastighet för random write (4kB) för 1-3 minnen, vilket visar att ett block är > 4kB. Testet visar oxå en markant höjning av random write-hastigheten när man använder > 3 minnen, detta kan möjligtvis förklaras med att de enskilda minnena buffrar en sekvens av skrivningar till samma logiska block ((om man skriver slumpmässigt till en 50MB fil, där 50MB filen är uppdelad på 6 enskilda minnen är sannolikheten större att en sekvens av slumpmässiga skrivningar går till samma logiska block på ett enskilt minne, än om man t.ex. delar upp samma fil på 2 minnnen och gör samma slumpmässiga skrivningar, hmm..)).

För att jmfra hastigheten för 4kB block kan det vara intressant att veta hur några andra enheter presterar...

Mtron MOBI klarar 34MB/s läs (0.4MB/s skriv)
Velociraptor klarar 0.7MB/s läs (1.6 MB skriv)
Raptor klarar 0.6MB/s läs (1.3MB/s skriv)

Källa:
http://www.nextlevelhardware.com/storage/mobi/
http://www.xlr8yourmac.com/IDE/SSD_vs_VelociRaptor_vs_Raptor/...

* block = minsta möjliga storlek att skriva till ett flash-minne
* page = minsta möjliga storlek att läsa från ett flash-minne