Skrivet av anon159643:
Det dröjer nog inte länge innan man har en PB data. Men hur man lagrar data förändras. Går man tillbaka till runt 2003 så var det inte jätteovanligt med folk som hade hårddiskar för runt 6000kr där de lagrade främst film på. Idag så har många väldigt mycket mer data med filmer, men vi är "smartare" och delar utrymmet med andra.
Detta med att vi i större utsträckning delar data med andra och har den i molnet, sänker i sin tur behovet att ha stora hårddiskar hemma. Och det blir allt vanligare med att man både arbetar och lagrar sin data någon annanstans. Detta betyder att någon annan måste köpa stora hårddiskar för att lagra vår data på.
Ett annat problem är att det blir svårare att hantera stora datamängder och man får använda mer avancerade tekniker för att undvika att fel smyger sig in. NTFS som de flesta använder redan nu börjar bli förlegad för denna datamängd.
Hur långt dagens hårddiskar går att utveckla är intressant, såna som mig som inte kan något har i all tid sagt att nu får det ej plats mer. Nå atomer, elektroniker har en viss storlek och kommer man ner till denna så får man problem. -Ja ja är medveten om en atomstorlek på kvantfysik är flummigt och att jag är fel person att uttala något om det.
Idag ligger avståndet mellan 2 magnetiska flux (flux = polväxling mellan N/S magnetiskt eller tvärt om) ca 10 nm på ett spår på en modern hårddisk - för ett lite tyngre ämne så är atomdiameter ca 0.3 nm (3 ångström) vilket innebär att det är mellan 30 - 40 atomer på rad mellan 2 flux. Bredden mellan spåren på en modern HD är ca 50 nm och krympande och man tror att ca 10 nm spårbredd är möjligt inom överskådlig tid. dvs. att hårddiskarna får 5 ggr dagens storlek med samma antal plattor. Flyghöjden för läs/skrivhuvud över skivytan är numera under 2 nm - det är inte speciellt många atomlager med luft som pressar sig mellan där...
Till detta så pratar man om 2D-skrivning (dvs. att i spåret använder varje magnetiskt korn som lagring av en bit) mm trix och då är man inte speciellt långt ifrån enstaka atomer i area på diskytan per bit - sedan är det stopp.
Nandflash-tekniken har motsvarande bekymmer - 17 nm geometri i dagen 2-D celler har redan visat sig att ha bekymmer och övergången till 10 och 7 nm feature-geometri har gett så stora produktionsproblem att vi idag har Nand-flashminnes brist för att 20-30% av förväntad/önskad produktion har helt enkelt inte kunnat komma igång pga. problemen med dom mindre geometrierna och med dålig yeld på det som produceras.
- Det är så få elektroner i den flytande gaten i en 2D-minne att det räcker att enstaka elektroner hittar väg ut för att nivån skall ändras så mycket att lagrade datat kommer att misstolkas om man inte konstant anpassar läsfönstrets vidd till den allmänna lägre nivån - och istället blir det större påverkan av brus och interferens av närliggande celler och man får läsfel av den orsaken... dessutom skall man ha marginaler av slitage i P/E-cykler (dvs. uppfångade elektroner i oxiden mellan flytande gaten och läselektroden gör att skiktet mellan blir allt mer skärmande - 'speglande' och allt svårare att se vad som sker bakom skiktet i den flytande gaten)
- Multilevel 2D-minnena har spänningsdrift (en del skriver Volt-drift men det ser fel ut i mina ögon, men jag är lite old-school och skiljer mellan storheter och enheter och det ser tokigt ut när man använder enhet som storhet - gissar att det är engelskans voltage och Volt som stökar till det när källtexter på engelska översätts till svensk språkbruk...) och kända serier som har sådan är tex. Samsungs 850 EVO - för att de var tidigt ute med multilevel-minne (MLC och TLC-minne) - och nu kommer alla andra med samma typ av problem nu när de också bara kan köpa den typen av minne och håller på att lära sig läxan nu medans Samsung redan passerat stålbadet...
Skulle man inte köra med multilevel-minnen med 2-3 bitar per cell så skulle chipytan behöva ökas mångfaldigt med dom kapaciteterna som krävs idag och sådana minnen skulle vara så dyra att ingen har råd med dessa då priserna per GB skulle vara kvar på samma nivåer som för typ 7 år sedan och en 500 GB SSD skulle kosta minst 10 papp och disk-kapslingen skulle vara knökfull med bga-kretsar och där varje kapsel har multipla chip stackade på varandra - många kretsar på ett kretskort är heller inge bra för driftsäkerheten då det alltid finns produktions-issue vid montering och senare termisk stress på lödningarna vid temperaturväxlingar och dessutom är blyfritt numera....
Räddningen då just nu - jo man kör 3D-minnen med djupa fickor för flytande gaten som är betydligt större i volym än 2D-minne så att den kan hålla betydligt flera elektroner och därmed tål fler ut-läckta elektroner innan det börja läsa fel - och så kör man lager på lager, som egentligen är samma teknik som att köra med fler plattor på en snurrdisk eller att man stackar chip på varandra i en trave i kapslingen och man löser inte det grundläggande problemet.
Man har ett problem till med 3D-minnen och det är att chipen blir dyra då det är så otrolig många processteg (för 48 lager så är det säkert över 200 masker som skall belysa samma bit kisel, etsas och joninplantera, metallager, lägga på kisel, oxider etc. ) och varje processteg introducera någon fel som måste kompenseras med att överdimensionera ytorna så att det finns reservminne att ta till - det gör också att det kommer ut väldigt mycket andraklassminne som inte klarar dom kraven som tex. SSD-minne i premium-segmentet kräver utan hittar ut i lågpris SSD, USB-minne och SD-minne med allt fallande kvalitetsklass och det i så stora mängder att det är svårt att hitta pålitliga chip (tex SD-minne) när man behöver för tex. industriell användning - och i industriell användning så tål man inte att en flash-minne börja tappa data efter 6 månader eller börja få skrivfel tidigt...
Man bryr sig heller inte i konsumentledet längre om att dessa flashminne skall hålla sin data vid strömlös förvaring någon längre tid - att det skall hålla datat intakt 1 år strömlöst när minnena har kört sin maximala P/E - gäller inte i praktiken längre, jag började tappa data på en SSD-disk redan efter 9-11 månader vid strömlös förvaring på minne som inte hade mer än max 4 P/E-cykler - dvs. knappt ens inkört, och då skall denna ändå kunna köras upp till 1000 P/E-cykler...
Skall man ha bra retention-tid på sina data för strömlös förvaring över lång tid så är fortfarande snurrdisken säkraste förvaringen (tillsammans med välbränd och verifierad optisk media av bra fabrikat) - snurrdisk-tillverkarna designar fortfarande att datat väl skrivet på en HD:s diskyta skall hålla i minst 10 år - men även de lider av att flashminnen blir av allt sämre kvalitet på tex. kontrollerkortet på hårddisken - datat på själva skivorna är friskt men med risk att kontrollern som skall läsa datat kanske inte fungerar efter säg 10 år pga. korrupt flash-minne...