Vad har längst livslängd SSD eller vanlig hårddisk? Plus lite övriga frågor om SSD, hårddiskar och lagring

Permalänk
Medlem

Vad har längst livslängd SSD eller vanlig hårddisk? Plus lite övriga frågor om SSD, hårddiskar och lagring

Hej läste en artikel på Sweclockers om att SSD har begränsat antal skrivningar och slits när de ska minea Chia. I artiklen står det att "Det är inte nödvändigtvis ett större bekymmer med mekaniska hårddiskar, däremot kan det ta ställa till problem för den som ovetandes köper en SSD-enhet som använts för Chia-brytning."

"Till skillnad från mekaniska hårddiskar använder SSD-enheter minneskretsar av typen NAND, där varje individuell minnescell endast klarar ett begränsat antal skrivningar innan de slits ut. Hur många skrivningar de klarar specificeras ofta i 1 000 eller mer, vilket med en SSD på en terabyte (TB) således motsvarar en petabyte (PB)."

När man läser detta verkar det som att vanliga hårddiskar har längre livslängd? Kan det stämma andra säger att SSD har längre livslängd för det är inga mekaniska delar. Vad har egentligen längst livslängd eller kan en hårddisk eller SSD "leva" i en evighet?
Vad för typ av lagring är det i mobiler nuförtiden? Är det någon form av SSD?

Är MicroSD kort, USB minne som en SSD?

Vilken har egnetligen längst livslängd? SSD, Hårddisk, USB Minne, Micro SD kort eller kanske CD, DVD? Eller kan något leva i en evighet? Annars blir det jobbigt att ständigt behöva göra säkerhetskopior hela tiden och desto mer blir det att kopiera också för den delen.

https://www.sweclockers.com/nyhet/32705-miners-saljer-anvanda...

Permalänk
Medlem

För att frågan skall kunna besvaras måste du också definiera begreppen. Vad menar du med "livslängd"? Är det hurpass länge disken kontinuerligt kan läsas ifrån tills kritiskt fel uppstår? Är det skrivning till disken som avses? Kanske en kombination, eller handlar det om hur länge disken lever utan någon belastning?

En mekanisk disk exempelvis klarar sig fint om den ligger strömlös, medan en SSD måste strömsättas och köras med jämna mellanrum för att överleva. En SSD som slits i en vanlig hemmadator överlever betydligt mycket längre än en mekanisk disk i samma scenario.

Det problem som generellt uppstår med hållbar lagringsmedia är inte att mediet i sig blir oläsbart utan att det blir svårt eller omöjligt att läsa det eftersom man saknar den kringutrustning som krävs.

Permalänk
Medlem
Skrivet av twit:

För att frågan skall kunna besvaras måste du också definiera begreppen. Vad menar du med "livslängd"? Är det hurpass länge disken kontinuerligt kan läsas ifrån tills kritiskt fel uppstår? Är det skrivning till disken som avses? Kanske en kombination, eller handlar det om hur länge disken lever utan någon belastning?

En mekanisk disk exempelvis klarar sig fint om den ligger strömlös, medan en SSD måste strömsättas och köras med jämna mellanrum för att överleva. En SSD som slits i en vanlig hemmadator överlever betydligt mycket längre än en mekanisk disk i samma scenario.

Det problem som generellt uppstår med hållbar lagringsmedia är inte att mediet i sig blir oläsbart utan att det blir svårt eller omöjligt att läsa det eftersom man saknar den kringutrustning som krävs.

Visste inte att en SSD måste ha strömsättas? Då är det ju också en nackdel med just SSD.

Permalänk
Medlem
Skrivet av SvenskGaming:

Visste inte att en SSD måste ha strömsättas? Då är det ju också en nackdel med just SSD.

Den klarar ju sig utan ström några månader, du kan ju dock inte ha den liggande i år som en hdd.

Permalänk
Rekordmedlem

En ssd tål inte att arkiveras (den är självraderande) och den kan bara skrivas till ett begränsat antal ggr. De är bra till framförallt läsningar och daglig användning men olämpliga för långtidslagring (och det är även vissa hdder)

Permalänk
Medlem
Skrivet av Snyft:

Den klarar ju sig utan ström några månader, du kan ju dock inte ha den liggande i år som en hdd.

Åh fan! Min gamla dator står just nu och väntar på grafikkort (när mitt 3080 kommer som jag beställde för 9 månader sedan). Den har stått utan ström i 2 år nu. Hoppas den fortfarande fungerar..

Permalänk
Rekordmedlem
Skrivet av kolle99:

Åh fan! Min gamla dator står just nu och väntar på grafikkort (när mitt 3080 kommer som jag beställde för 9 månader sedan). Den har stått utan ström i 2 år nu. Hoppas den fortfarande fungerar..

Inget går egentligen sönder men ssdn kan förlora den data den lagrar, minnescellerna tappar sin laddning så ligger den länge nog är allt nollor på den.
Samsung hade stora problem med väldigt snabb urladdning för några år sedan och de fick uppdatera sin firmware så att den skrev om cellerna oftare för att de inte skulle förlora data. (eller kanske mer korrekt, ta väldigt lång tid att läsa pga all felkorrigering som måste till, få lät ssderna vara oanvända så länge att de verkligen blev helt raderade) Omskrivningarna förbrukade dock skrivcykler så cellerna slets ut i förtid, bara att välja mellan pest eller kolera
https://www.sweclockers.com/nyhet/19362-samsung-840-och-840-e...

Permalänk
Medlem

Ett tillägg äver vad som redan sagts är att ssd/usbdiskar(dock INTE dom med snurrande hårddisk) och sdkort alla använder sig av flash media som lagringsmedia, även "EMMC" finns men är i stort sett ett sdkort som är fastlött på ett moderkort.

Och när flash chip tillverkas så testas dom och sorteras i hur bra dom funkar som snabbhet/säkerhet/osv.
Och sen så används dom dyraste/snabbaste/säkraste chippen i ssd'er sen får usb diskarna sina billigare/slöare chip och sist SD korten (och troligen EMMC med) som får skiten som dom ej vill använda nånannanstans.

Med andra ord ska man lagra på flash media så är sdkort det sista man bör välja, och är det en usbsticka så bör man verkligen välja en som man är säker på har fått riktigt bra flash chip och då troligen är väldigt dyrt.

Permalänk
Medlem
Skrivet av mrqaffe:

Inget går egentligen sönder men ssdn kan förlora den data den lagrar, minnescellerna tappar sin laddning så ligger den länge nog är allt nollor på den.
Samsung hade stora problem med väldigt snabb urladdning för några år sedan och de fick uppdatera sin firmware så att den skrev om cellerna oftare för att de inte skulle förlora data. (eller kanske mer korrekt, ta väldigt lång tid att läsa pga all felkorrigering som måste till, få lät ssderna vara oanvända så länge att de verkligen blev helt raderade) Omskrivningarna förbrukade dock skrivcykler så cellerna slets ut i förtid, bara att välja mellan pest eller kolera
https://www.sweclockers.com/nyhet/19362-samsung-840-och-840-e...

Haha, det var ju inte bättre. SSD:n är en gammal Samsung Evo från typ 2015 😅. Aja hoppas inte jag hade allt för viktiga saker på den!

Permalänk
Avstängd

Köpte ett decennium sedan min första ssd, en 240gb intel 520 Cherryville samtidigt som två WD black 3tb.
SSD'n dog nyligen, all data på den gick förlorad. En hårddisk dog förra året, den andra lever än och dess SMART varning för dåliga sektorer har legat oförändrad på samma nivå i över tre år.

Permalänk
Medlem
Skrivet av kolle99:

Haha, det var ju inte bättre. SSD:n är en gammal Samsung Evo från typ 2015 😅. Aja hoppas inte jag hade allt för viktiga saker på den!

Det kan fungera ändå att läsa då Samsung hade bättre och mer omfattande ECC-rättning än många av sina konkurrenter och speciellt i budgets-klassen av noname-SSD (dit räknas Sandisk och Kingston) där det bara finns ECC-rättning på själva chipens die-nivå och ingen lager felrättning ovanför ytterligare (soft-ECC, som Samsung hade).

Man kunde går från BER av 1 fel per 50000 lästa bit när det rättades på die-nivå till 1 fel per 5000 bit läst när man också hade soft-ECC som tog över på högre logisk nivå när chippen inte klarade felrättningen längre.

Men räkna inte att läsningen går fort utan kanske bara enstaka 10-tal MB/s, men bättre det än hård hängning som jag fick med en Sandisk-SSD när den hade läsfel redan efter 11 månader i skrivbordslådan.

Man får heller inte fart skrivmässigt på en trött EVO 840 förrän man skrivit igenom SSD:s volym minst 1,5 ggr med ny data så att alla trötta block skrivs med ny fräsch data - då blocken verkar läsas internt innan det skrivs med ny data och är det trögläst så har det också påverkan på skrivhastigheten - stor påverkan... detta trots senaste firmwaren...

läshastigheten bibehålls ganska bra över tiden mot innan med äldre firmware, men skrivningen kan bli jätteseg om inte SSD:n motioneras med stora skrivmängder då och då (typ 1 ggr per 6 månader)... - vi prata prestanda sämre än en laptop-snurrdisk i sekventiell skrivning...

(den EVO 840 240GB jag har och surfar med och skriver denna text just nu på, nu är 77545 timmar gammal och har skrivits 87.5 TiB, kört 405 wearlevlingsvarv och verkar vara beräknat för runt 1000-1200 wearlevlingsvarv innan det anses slutkörd om man ser på nedräkningen av det normaliserade värdet i SMART)

Permalänk
Medlem
Skrivet av xxargs:

Det kan fungera ändå att läsa då Samsung hade bättre och mer omfattande ECC-rättning än många av sina konkurrenter och speciellt i budgets-klassen av noname-SSD (dit räknas Sandisk och Kingston) där det bara finns ECC-rättning på själva chipens die-nivå och ingen lager felrättning ovanför ytterligare (soft-ECC, som Samsung hade).

Man kunde går från BER av 1 fel per 50000 lästa bit när det rättades på die-nivå till 1 fel per 5000 bit läst när man också hade soft-ECC som tog över på högre logisk nivå när chippen inte klarade felrättningen längre.

Men räkna inte att läsningen går fort utan kanske bara enstaka 10-tal MB/s, men bättre det än hård hängning som jag fick med en Sandisk-SSD när den hade läsfel redan efter 11 månader i skrivbordslådan.

Man får heller inte fart skrivmässigt på en trött EVO 840 förrän man skrivit igenom SSD:s volym minst 1,5 ggr med ny data så att alla trötta block skrivs med ny fräsch data - då blocken verkar läsas internt innan det skrivs med ny data och är det trögläst så har det också påverkan på skrivhastigheten - stor påverkan... detta trots senaste firmwaren...

läshastigheten bibehålls ganska bra över tiden mot innan med äldre firmware, men skrivningen kan bli jätteseg om inte SSD:n motioneras med stora skrivmängder då och då (typ 1 ggr per 6 månader)... - vi prata prestanda sämre än en laptop-snurrdisk i sekventiell skrivning...

(den EVO 840 240GB jag har och surfar med och skriver denna text just nu på, nu är 77545 timmar gammal och har skrivits 87.5 TiB, kört 405 wearlevlingsvarv och verkar vara beräknat för runt 1000-1200 wearlevlingsvarv innan det anses slutkörd om man ser på nedräkningen av det normaliserade värdet i SMART)

Ah. Om det inte blivit något skrivfel under tiden den stått utan ström så kommer den i alla fall vara ganska seg. Om jag gör en komplett formatering, kommer den då bli snabb igen eller är SSD:n ”förbrukad”?

Permalänk
Medlem

SSD är inte förbrukad - men att göra drygt 1.5 Verakryptskrivningar hela disken igenom (och ej snabbformatsläget) kommer att motionera igenom hela disken NAND-flash lagring och sedan formatera filsystemet med det du vill ha får det hela blir betydligt snabbare igen. En annan väg är att göra security erase - dock spara undan det du vill ha först innan något av ovanstående görs först.

SSD är till för att användas - inte att lagra statisk data över lång tid , vilket gäller i stort sett all Flash-lagring.

sedan finns program som diskfresh och liknande som skriver RAW från disken och sedan skriver tillbaka igen och den vägen få alla diskens publika sektorer nyskrivna igen - men har inte själv provat dem.

Permalänk
Medlem

As far as HDD longevity is concerned - I have one WD 2TB drive that worked over 3200 days. That particular drive is has a lot of reads and writes daily (downloads and uploads) so its not just "sitting" in the case. I have other even older drives that I have retired from my main PC and gave to my kids. Some of them are 15 years old (500GB to 1TB models). I rarely power down my PC, I only reboot it to do updates or to shut it down for maintenance, so the drives work all the time.

Recently, before moving to Sweden I gave away a lot of older drives, including some IDE and older SATA models that worked in various PCs until 3-4 years ago. I did work a lot with hardware previously (as a tech) so I had a lot of hard drives go trough my hands. In general, they can last for a very long time. Byte rot is something that can happen, but actually it affects SSDs more than old HDDs. They can hold the data for a very long time (if kept in appropriate atmospheric conditions).

Permalänk
Sötast
Skrivet av xxargs:

Det kan fungera ändå att läsa då Samsung hade bättre och mer omfattande ECC-rättning än många av sina konkurrenter och speciellt i budgets-klassen av noname-SSD (dit räknas Sandisk och Kingston) där det bara finns ECC-rättning på själva chipens die-nivå och ingen lager felrättning ovanför ytterligare (soft-ECC, som Samsung hade).

Man kunde går från BER av 1 fel per 50000 lästa bit när det rättades på die-nivå till 1 fel per 5000 bit läst när man också hade soft-ECC som tog över på högre logisk nivå när chippen inte klarade felrättningen längre.

Men räkna inte att läsningen går fort utan kanske bara enstaka 10-tal MB/s, men bättre det än hård hängning som jag fick med en Sandisk-SSD när den hade läsfel redan efter 11 månader i skrivbordslådan.

Man får heller inte fart skrivmässigt på en trött EVO 840 förrän man skrivit igenom SSD:s volym minst 1,5 ggr med ny data så att alla trötta block skrivs med ny fräsch data - då blocken verkar läsas internt innan det skrivs med ny data och är det trögläst så har det också påverkan på skrivhastigheten - stor påverkan... detta trots senaste firmwaren...

läshastigheten bibehålls ganska bra över tiden mot innan med äldre firmware, men skrivningen kan bli jätteseg om inte SSD:n motioneras med stora skrivmängder då och då (typ 1 ggr per 6 månader)... - vi prata prestanda sämre än en laptop-snurrdisk i sekventiell skrivning...

(den EVO 840 240GB jag har och surfar med och skriver denna text just nu på, nu är 77545 timmar gammal och har skrivits 87.5 TiB, kört 405 wearlevlingsvarv och verkar vara beräknat för runt 1000-1200 wearlevlingsvarv innan det anses slutkörd om man ser på nedräkningen av det normaliserade värdet i SMART)

Skrivet av xxargs:

SSD är inte förbrukad - men att göra drygt 1.5 Verakryptskrivningar hela disken igenom (och ej snabbformatsläget) kommer att motionera igenom hela disken NAND-flash lagring och sedan formatera filsystemet med det du vill ha får det hela blir betydligt snabbare igen. En annan väg är att göra security erase - dock spara undan det du vill ha först innan något av ovanstående görs först.

SSD är till för att användas - inte att lagra statisk data över lång tid , vilket gäller i stort sett all Flash-lagring.

sedan finns program som diskfresh och liknande som skriver RAW från disken och sedan skriver tillbaka igen och den vägen få alla diskens publika sektorer nyskrivna igen - men har inte själv provat dem.

Har aldrig hört talas om det här med att SSD'er blir som gammal mjölk med tiden och att hastigheter sänks om man inte skriver över dem helt lite då och då.

Alla SSD'er jag haft har exakt samma hastighet nu som vid inköp. Löste inte TRIM detta problemet bara något år efter att SSD'er blev mainstream för över 10 år sedan?

Permalänk
Medlem

TRIM är bara nåt som hjälper när filer har raderats och TRIM frigör då dom celler som den datan tog upp istället för att bara låta datan ligga kvar och slöa ner nya skrivningar som händer utan TRIM.

Det som händer med tiden är att jämföra med ett bateri/kondensatorer.
Dvs Flash cellen laddas upp elektriskt vid skrivning och med tiden tappas laddningen just som ett batteri.
Och det finns då dålig flash media som tappar laddning fort men även flash kontrollern spelar en roll då den bestämmer vid x antal % av tappad laddning så skrivs det om och görs tex denna omskrivning för sent så kan det leda till problem.
Då dels för att kontrollern skriver om för sent som i samsungs fall, heller om den helt enkelt varit strömlös och inte kunnat skriva om datan.

Permalänk
Medlem

Äldre mekaniska går oftast sönder pga stress även om överföringen bestäms av den sämsta prestandan, så var den prestandan inte tänkt att uppnås under kontinuerligt drift. Mig veterligen skriver alla ssd idag växelvis, i viloläge skapas nya prioceller hela tiden OS'et kopieras till ny cell som blir prio för att data inte ska falla bort!!

Permalänk
Medlem

Den viktigaste faktorn för livslängd gällande både snurrdisk och SSD/NVMe är om det startas och stoppas ofta eller är strömsatta i 24/7 med väldigt få strömavslag - typ mindre än 100 strömcykler och spindelstarter per 50000 drifttimmar.

Temperaturväxlingarna är ett större problem än antal drifttimmar bakom sig och insåg nyligen att jag har en växande antal snurrdiskar som är långt förbi 50000 spindeltimmar och huvudflygtid idag utan uppvisad tjurighet - och ingen av dem är någon WD då de WD-green jag hade som NAS-diskar innan börja visa konstigheter vid runt 45000 timmar och när den andre disken i disksetet börja krångla av 4 diskar vid runt 47000 timmar fick jag nog och kastade ut dem...

SSD har också ett förvisso litet men fortfarande existerande tidsfönster där de inte tål strömavbrott just när vissa interna skrivoperationer pågår och kan bara fixas med inbyggda backupkondingar så att skrivningarna hinner slutföras och gå till säkert lägen innan spänningen blir för låg. Sådana backuppkondingar finns inte i konsument-SSD utan bara vissa modeller server SSD för 1-2 nollor till på prislappen och existerar knappt på NVMe-lagring.

- ni alla som råkat ut för att laptopen inte startar på sin interna SSD/NVMe en morron, har troligen lyckat stänga av laptopen och gjort SSD/NVMe strömlös just i denna kritiska tidpunkt... - det är en felbeteende som i princip aldrig sker med en snurrdisk oavsett sort såvida det inte beror på stort fall och skivorna gått sönder typ...

Vi har haft sådana fall på arbetslaptop, industridatorer i fält där använda SSD verkligen blivit stendöda (även av Intels tillverkning) men kan inte minnas att en snurrdisk och laptopsnurrdisk någonsin betett sig på sådan sätt i någon läge med plötslig stendöd lagring och all data förlorat och det har alltid gått att 'mjölka' ur data på dessa snurrdiskar med tex. ddrescue såvida skivorna i disken inte är bokstavligen krossad.

SSD/NVMe är den bästa lyftet för en OS-systemdisk när det ersätter en tidigare snurrdisk och svår att överträffa med någon annan 'förbättring' - men jag liter inte på dessa på samma nivå som snurrdiskar när det gäller beteende i hur de går sönder och möjlighet att rädda data efteråt när problemen väl inträffar...

Det var viktig med regelbundna backupper när man hade snurrdiskar - men idag med SSD/NVMe är det ännu viktigare med backup då SSD/NVMe dör väldigt ofta som en blixt från klar himmel helt utan förvarning (och statistiskt sett lite för ofta för att det skall vara bra) och datat som är i SSD/NVMe är i stort sett helt omöjligt att rädda ut igen i efterhand när det väl skett.

Permalänk
Medlem

ssd orkar inte med lika länge som mekanisk, jag har gått igenom massor av ssds genom read/writes... men sällan att en mekanisk rasar.

dock det jag noterat är att ssd rapporterar väldigt fint hur mycket "livslängd" som är kvar, medans mekanisk säger oftast att allt är grönt, tills en vacker dag så börjar den klaga, och när den väl börjar klaga så rasar allt väldigt snabbt, kan vara så nära döden att du inte ens kan rädda datan som ligger på den, vilket inte har varit fallet för mig när det gäller ssd.

Permalänk
Medlem

Det är sant att ibland får vara snabb när en HD börja visa problem - men ddrescue och envist körande kan ändå få fram förvånansvärt mycket data, men man skall alltid betrakta situationen när man försöker rädda datat är att man har ett enda försök på sig. Problemenet med SSD med 'sudden death'-syndrom är att man får inte ens den chansen och att det är lite för ofta att det går sönder på just det sättet, medans snurrdiskar med ras där det handlar om minuter för att rädda datat är ganska sällan uppkommen situation i jämförelse med andra problem. Men visst - diskar i borglömd NAS där diskarna gnällt om SMART-fel senaste 2 åren och till slut dör på riktigt förekommer ju också, men det beror mer på ignorans av de som har utrustningen - inte kollar status och byter disk när det är dags. Det är många orginaldokument och ritningar över anläggningar som försvunnit den vägen även i rätt stora företag för att ingen känner ansvar för lagring och att det tas backupper regelbundet och så står man där en dag med en hel avdelning som inte lägre kan göra jobb då de är beroende av att kunna leta i dokumenten...

Att HDD inte har en 'förbrukningsmätare' på samma sätt som SSD är att det tekniskt sett inte har någon begränsning på mängden skriven data utan det är något av allt runt om som ger upp innan det är skrivproblem.

Permalänk
Medlem

Men hur ska man hålla sin data säker om varken hårddisk eller SSD är bra då? De flesta har väl sagt att hårddiskar kraschar lättare än SSD för de är mekaniska? Molntjänster är ju tydligen inte heller bra då det kan lägga ner tjänsten eller bli hackade? Var det inte någon hacker som gjorde så nyligen att han kapade folks konton och raderade bilder enbart för att jävlas? Känns ju som att man ska behöva göra 6 säkerhetskopior och förvara på olika ställen. DVD, USB, SSD, Hårddisk, Molntjänst, Fysiskt framkallat foto. Sen dessutom göra säkerhetskopior och skaffa nya lagringsmedia med jämna mellanrum? Känns som ett omfattande jobb.

Permalänk
Medlem

Japp!
Absolut minimum för att ens börja vara säker är ju 3-2-1, dvs 3 kopior/2 olika media/1 off site.

Permalänk
Rekordmedlem
Skrivet av SvenskGaming:

Men hur ska man hålla sin data säker om varken hårddisk eller SSD är bra då? De flesta har väl sagt att hårddiskar kraschar lättare än SSD för de är mekaniska? Molntjänster är ju tydligen inte heller bra då det kan lägga ner tjänsten eller bli hackade? Var det inte någon hacker som gjorde så nyligen att han kapade folks konton och raderade bilder enbart för att jävlas? Känns ju som att man ska behöva göra 6 säkerhetskopior och förvara på olika ställen. DVD, USB, SSD, Hårddisk, Molntjänst, Fysiskt framkallat foto. Sen dessutom göra säkerhetskopior och skaffa nya lagringsmedia med jämna mellanrum? Känns som ett omfattande jobb.

Man har flera magnetiska (eller optiska) backuper med nån typ av felkontroll och korrigering oberoende av lagringshårdvarans och de ska inte finnas på samma fysiska plats och de ska normalt inte vara anslutna till vare sig el eller datanät utan helt fysiskt bortkopplade, man ansluter bara en av backuperna i taget när man utför arkivering.
Man ska också migrera datan i takt med teknikutvecklingen så att det finns rimligt enkelt tillgänglig hårdvara som kan läsa den, redan idag är det ju svårt att använda ide diskar och har man tex zipdiskar är det ju verkligen "retro" så man behöver följa med med hårdvaruformaten så det funkar i praktiken.
Man bör också tänka på filformat och filsystem för allt MS har gjort är bland det sämsta och mest riskabla som finns om man förväntar sig att det ska fungera i framtiden.

Permalänk
Medlem
Skrivet av xxargs:

Det är sant att ibland får vara snabb när en HD börja visa problem - men ddrescue och envist körande kan ändå få fram förvånansvärt mycket data, men man skall alltid betrakta situationen när man försöker rädda datat är att man har ett enda försök på sig.
<klipp>
Att HDD inte har en 'förbrukningsmätare' på samma sätt som SSD är att det tekniskt sett inte har någon begränsning på mängden skriven data utan det är något av allt runt om som ger upp innan det är skrivproblem.

En (lite lång) anekdot från häromdagen och verkligheten, eftersom du nämnde ddrescue:

För många år sedan (1997) rasade min Amiga-hårddisk (scsi-Quantum 120LPS), den hade trilskats ett tag och jag hade undvikit att använda de yttre spåren av den. Jag hade raderat en partition med fonter och skit för att börja förbereda arkivering och överföring till disketter. Men, sedan rasade hårddisken (extern) på riktigt, i golvet, och då var det inte kul.
120MByte data, det viktigaste (kod, egen musik, texter, etc) hade jag på disketter, men hårddisken kändes igen av kontrollern typ 1 gång av 20-30, rasslade som om det låg smågrus bland skivorna, och lät som fan, jag hade ca 8 partitioner på den i 2-3 olika filformat, och ingen annan dator just då heller.

Lade hårddisken i en byrålåda, använde Amigan med disketter + bootbar RAM-disk, tills jag ca år 2000 köpte en PC. Försökte med hårddisken i en bättre kontroller, men min hårddisk hade inte RDB (Amigans 'MBR') pga tysk ful-kontroller jag hade (Multi-Evolution) så enda sättet att komma åt hårddisken var att boota 20-30 gånger (från diskett) innan hårddisken hittades och sedan kopiera till PC-disketter (720kb) för att föra över till PC och bränna ut på CD. Jag tror jag räddade det mesta, men flera partitioner fick jag inte kontakt med. Ofta kraschade datorn hipp som happ.

Lade den trasiga hårddisken i en byrålåda igen.

Hoppa fram 20 år. Nu går jag igenom mina Amigagrejor medan jag vabbar med sjuka barn.
Fram med en PC med PCI-platser, i med ett Adaptec SCSI-kort, boota linux. Hårddisken hittas även nu en gång på 10-20 kanske. Svetten pärlas, hårddisken låter som fan, kör en snabb DD som går igenom hela hårddisken, 120Mbyte. 4Mbyte corrupted data.
Gör Gnu ddrescue. Den lyckas på första försöket (som ju tar en stund) få fram allt utom ca 250kbyte corrupted data. Sedan kör jag en gång till med lite "värre" inställningar och på dessa 120Mbyte blev till slut bara 27kbyte oläsligt.

Att läsa image-filen i Linux gick inte, det fanns ju inget standard RDB-block och partition table. Min Amiga-scsi-kontroller skrev data från partition 1 där RDB brukar ligga (block 0-1) så det gick inte att lägga till ett RDB utan att sabba åtminstone första partitionen, och dessutom min kontrollers ostandard-bootblock som innehåller partition tables.

Enter Win-UAE. Laddade hem ROM för min multievolutioncontroller, satte upp WinUAE ungefär som min Amiga, och lyckades boota från min ddrescue-image. För att göra en lång historia kortare fick jag därefter, via en mountlist jag sparat på datorn 1997, ut en lista på partitioner, med block, cylindrar, filsystem, hela faderullan, och lyckades mounta alla partitioner en och en och kopiera över data. Tror det var ca 2 filer på hela hårddisken som var trasiga.

Ett, för mig, totalt osannolikt fantastiskt resultat. Tack ddrescue! Kul att kunna se sina gamla grejer igen, men jag ska fortsätta den här historien i en annan tråd nån gång.
Nu ligger grejerna på en IDE-SSD i min Amiga 1200T. (Den SSDn säger sig ha 10 år data retention (MLC), MTBF på 3.6 miljoner, "Additional security is provided by advanced power-shield technology, which prevents data loss in the event of a sudden power failure", men jag litar inte helt på just det)

Skrivet av mrqaffe:

Man ska också migrera datan i takt med teknikutvecklingen så att det finns rimligt enkelt tillgänglig hårdvara som kan läsa den, redan idag är det ju svårt att använda ide diskar och har man tex zipdiskar är det ju verkligen "retro" så man behöver följa med med hårdvaruformaten så det funkar i praktiken.
Man bör också tänka på filformat och filsystem för allt MS har gjort är bland det sämsta och mest riskabla som finns om man förväntar sig att det ska fungera i framtiden.

Apple har ju också gjort sina grejer genom åren. Typexemplet här, som är aktuellt i nutid, är att MacOS 10.15 Catalina dödade support för Apples gamla filsystem HFS. (Inte HFS+). Har man "backupskivor" eller liknande, som man brände på CD och valde HFS som filsystem istället för något mer standard (inte helt ovanligt bland Macägare) möts man numera av att CDn är oläslig om man försöker läsa den. Men det är fysiskt inget fel på den, man måste bara hitta en dator som kan läsa HFS. Risken är väl att man slänger skivan i vredesmod eller besvikelse efter att ha raggat upp en extern läsare till sin moderna Mac. Jag hoppas att Apple ger ett bättre felmeddelande numera, men fan tro't.

En av mina PC-datorer har IDE, SATA, SCSI-kort, diskettstation, 2 optiska enheter DVD/Blu-ray, firewirekort, och kör både Windows 10 (med osignerade drivers för scsi-kortet) och Linux. Funderar på att dra in en äldre Windows också, och tänker ha kvar den datorn så länge den fungerar just då den "klarar allt". Skulle gärna ha en 5.25"-diskettstation också, även om behovet är svagt för egen del.

Permalänk
Medlem