Tror ni på PB kapacitet i framtiden?

Permalänk
Medlem

Tror ni på PB kapacitet i framtiden?

Jag undrar om det vore realistiskt med konsumenthårddiskar i framtiden? Jag tänker på en "snar framtid", kanske 15-20 år eller något liknande. Tänker något som motsvarar 1 petabyte i SATA gränssnitt eller något liknande. Gissningsvis som en vanlig intern hårddisk för stationära datorer. Jag ställer mig frågan av den anledningen att jag misstänker att efterfrågan bland vanliga konsumenter kanske minskar... När vi prata PETABYTE så är det ungefär motsvarande vad som fanns på hela What.cd i musik. Det skulle även rymma jävligt mycket av framtida standarder... Ta t.ex. 4K som finns idag. Vanliga konsumenter kommer knappast behöva en upplösning på mycket mer än 8k. Man får även plats med jävkligt mycket filmer, TV-serier och annat som "vanliga konsumenter" tittar på i 8k. Även med framtida TV apparater så KAN MAN inte se skillnad på den upplösningen även om man har stor TV och tittar tillräckligt nära. Kommer vi ens se 12k? 18k? Kanske för projektorer tänker jag... Vad kan "vanliga" konsumenter behöva så stora datormängder till ens om 20 år? Gaming kanske?

Vi har gått från vanliga hårddiskar för konsumenter på ungefär 80 GB till 8 TB sedan år 2002 ungefär. Borde vi inte kunna gå från 8 TB till 1 PB någon gång runt år 2040 tänker jag? ELLER kommer behover (möjligtvis?) att minska och kurvan att stagnera? Vad tror ni?

Permalänk
Avstängd

Självklart kommer vi att nå ett tak någon gång, men vi lär nå över PB innan dess. Jag menar, vi har ju micro-Sd på 256GB redan så 4000 sådana för att komma till en PB och de borde inte ta upp så mycket mer plats än en vanlig 3,5'' disk. Och det är idag liksom, med kort som slösar en massa utrymme på plastskalet och interfacet. Så en PB är ju ganska uppnåeligt redan.

Permalänk

LTT håller ju på med ett petabyte projekt. Tror mer att det är enterprise som kommer ha behov av det snarare än konsument

Skickades från m.sweclockers.com

Visa signatur

7700K - 16GB 3200MHz - 1080ti FE

Permalänk
Medlem

Ptja, varför inte, "5D lagring" har ju ofantlig potential, i vart fall när det kommer till kapacitet http://www.orc.soton.ac.uk/962.html

Sen kan man ju fråga sig hur rimligt det är att en privatperson ens skulle vara intresserad av att ha så mycket lagring, knappast ens hobbyister. The future is spelled: streaming.

Visa signatur

You have earned my respect and my friendship.

Permalänk
Avstängd

Antingen kommer allt ligga på ett moln eller så ska du ha dina vr-världar i 8k så då kanske vi kommer kräva PB eller 100Gbit lina rakt in för att streama allt.

Min första dator hade 1,2GB och det var ändå mastigt. Nu kan du inte ens peta in windows på den disken. Duke Nukem 3D som var stort på den tiden med bra grafik fick plats på 10st 1,44 MB diskar.
Detta var -95 tror jag, ca 20 år sen. Jag har idag 750 GB ssd och kanske 9TB hd.
20 år frammåt så kommer kanske in PB räcka.

Visa signatur

Chassi: Fractal Design Define R3 Black, Mobo: ASUS Z170 Pro Gaming, CPU: Intel i7 6700K, kylning CM Hyper 212 EVO, RAM: 32 GB Hyper X 3000 mhz, GPU: Nvidia MSI 1080 Gaming X, PSU: XFX Core Edition Pro 750W, Mus: Logitech G700, Tgb: Corsair Raptor K30, OS: Win10

Permalänk
Medlem

Jag tror om 15-20 år kommer vi vara långt ifrån hårddiskar, ram-minne, processorer som de ser ut idag och både lagring och hastighet kommer vara obegränsat för vardagligt bruk. Men det är ju helt hypotetiskt.

Visa signatur

Mac Mini M2 Pro
5K

Permalänk
Inaktiv

Det dröjer nog inte länge innan man har en PB data. Men hur man lagrar data förändras. Går man tillbaka till runt 2003 så var det inte jätteovanligt med folk som hade hårddiskar för runt 6000kr där de lagrade främst film på. Idag så har många väldigt mycket mer data med filmer, men vi är "smartare" och delar utrymmet med andra.
Detta med att vi i större utsträckning delar data med andra och har den i molnet, sänker i sin tur behovet att ha stora hårddiskar hemma. Och det blir allt vanligare med att man både arbetar och lagrar sin data någon annanstans. Detta betyder att någon annan måste köpa stora hårddiskar för att lagra vår data på.

Ett annat problem är att det blir svårare att hantera stora datamängder och man får använda mer avancerade tekniker för att undvika att fel smyger sig in. NTFS som de flesta använder redan nu börjar bli förlegad för denna datamängd.

Hur långt dagens hårddiskar går att utveckla är intressant, såna som mig som inte kan något har i all tid sagt att nu får det ej plats mer. Nå atomer, elektroniker har en viss storlek och kommer man ner till denna så får man problem. -Ja ja är medveten om en atomstorlek på kvantfysik är flummigt och att jag är fel person att uttala något om det.

Permalänk
Medlem
Skrivet av Stefflo:

Antingen kommer allt ligga på ett moln eller så ska du ha dina vr-världar i 8k så då kanske vi kommer kräva PB eller 100Gbit lina rakt in för att streama allt.

Min första dator hade 1,2GB och det var ändå mastigt. Nu kan du inte ens peta in windows på den disken. Duke Nukem 3D som var stort på den tiden med bra grafik fick plats på 10st 1,44 MB diskar.
Detta var -95 tror jag, ca 20 år sen. Jag har idag 750 GB ssd och kanske 9TB hd.
20 år frammåt så kommer kanske in PB räcka.

This.

Är det inte snarare så att folk är i behov av mindre lagring nu än förr? De allra flesta streamar musik&film och laddar upp bilder&video till molnet. Tror behovet iallfall stagnerat lite och inte ökar lika snabbt som förr. Däremot så ökar ju behovet snabbt som attan för företag.

Permalänk
Medlem
Skrivet av anon159643:

Det dröjer nog inte länge innan man har en PB data. Men hur man lagrar data förändras. Går man tillbaka till runt 2003 så var det inte jätteovanligt med folk som hade hårddiskar för runt 6000kr där de lagrade främst film på. Idag så har många väldigt mycket mer data med filmer, men vi är "smartare" och delar utrymmet med andra.
Detta med att vi i större utsträckning delar data med andra och har den i molnet, sänker i sin tur behovet att ha stora hårddiskar hemma. Och det blir allt vanligare med att man både arbetar och lagrar sin data någon annanstans. Detta betyder att någon annan måste köpa stora hårddiskar för att lagra vår data på.

Ett annat problem är att det blir svårare att hantera stora datamängder och man får använda mer avancerade tekniker för att undvika att fel smyger sig in. NTFS som de flesta använder redan nu börjar bli förlegad för denna datamängd.

Hur långt dagens hårddiskar går att utveckla är intressant, såna som mig som inte kan något har i all tid sagt att nu får det ej plats mer. Nå atomer, elektroniker har en viss storlek och kommer man ner till denna så får man problem. -Ja ja är medveten om en atomstorlek på kvantfysik är flummigt och att jag är fel person att uttala något om det.

Idag ligger avståndet mellan 2 magnetiska flux (flux = polväxling mellan N/S magnetiskt eller tvärt om) ca 10 nm på ett spår på en modern hårddisk - för ett lite tyngre ämne så är atomdiameter ca 0.3 nm (3 ångström) vilket innebär att det är mellan 30 - 40 atomer på rad mellan 2 flux. Bredden mellan spåren på en modern HD är ca 50 nm och krympande och man tror att ca 10 nm spårbredd är möjligt inom överskådlig tid. dvs. att hårddiskarna får 5 ggr dagens storlek med samma antal plattor. Flyghöjden för läs/skrivhuvud över skivytan är numera under 2 nm - det är inte speciellt många atomlager med luft som pressar sig mellan där...

Till detta så pratar man om 2D-skrivning (dvs. att i spåret använder varje magnetiskt korn som lagring av en bit) mm trix och då är man inte speciellt långt ifrån enstaka atomer i area på diskytan per bit - sedan är det stopp.

Nandflash-tekniken har motsvarande bekymmer - 17 nm geometri i dagen 2-D celler har redan visat sig att ha bekymmer och övergången till 10 och 7 nm feature-geometri har gett så stora produktionsproblem att vi idag har Nand-flashminnes brist för att 20-30% av förväntad/önskad produktion har helt enkelt inte kunnat komma igång pga. problemen med dom mindre geometrierna och med dålig yeld på det som produceras.

- Det är så få elektroner i den flytande gaten i en 2D-minne att det räcker att enstaka elektroner hittar väg ut för att nivån skall ändras så mycket att lagrade datat kommer att misstolkas om man inte konstant anpassar läsfönstrets vidd till den allmänna lägre nivån - och istället blir det större påverkan av brus och interferens av närliggande celler och man får läsfel av den orsaken... dessutom skall man ha marginaler av slitage i P/E-cykler (dvs. uppfångade elektroner i oxiden mellan flytande gaten och läselektroden gör att skiktet mellan blir allt mer skärmande - 'speglande' och allt svårare att se vad som sker bakom skiktet i den flytande gaten)

- Multilevel 2D-minnena har spänningsdrift (en del skriver Volt-drift men det ser fel ut i mina ögon, men jag är lite old-school och skiljer mellan storheter och enheter och det ser tokigt ut när man använder enhet som storhet - gissar att det är engelskans voltage och Volt som stökar till det när källtexter på engelska översätts till svensk språkbruk...) och kända serier som har sådan är tex. Samsungs 850 EVO - för att de var tidigt ute med multilevel-minne (MLC och TLC-minne) - och nu kommer alla andra med samma typ av problem nu när de också bara kan köpa den typen av minne och håller på att lära sig läxan nu medans Samsung redan passerat stålbadet...

Skulle man inte köra med multilevel-minnen med 2-3 bitar per cell så skulle chipytan behöva ökas mångfaldigt med dom kapaciteterna som krävs idag och sådana minnen skulle vara så dyra att ingen har råd med dessa då priserna per GB skulle vara kvar på samma nivåer som för typ 7 år sedan och en 500 GB SSD skulle kosta minst 10 papp och disk-kapslingen skulle vara knökfull med bga-kretsar och där varje kapsel har multipla chip stackade på varandra - många kretsar på ett kretskort är heller inge bra för driftsäkerheten då det alltid finns produktions-issue vid montering och senare termisk stress på lödningarna vid temperaturväxlingar och dessutom är blyfritt numera....

Räddningen då just nu - jo man kör 3D-minnen med djupa fickor för flytande gaten som är betydligt större i volym än 2D-minne så att den kan hålla betydligt flera elektroner och därmed tål fler ut-läckta elektroner innan det börja läsa fel - och så kör man lager på lager, som egentligen är samma teknik som att köra med fler plattor på en snurrdisk eller att man stackar chip på varandra i en trave i kapslingen och man löser inte det grundläggande problemet.

Man har ett problem till med 3D-minnen och det är att chipen blir dyra då det är så otrolig många processteg (för 48 lager så är det säkert över 200 masker som skall belysa samma bit kisel, etsas och joninplantera, metallager, lägga på kisel, oxider etc. ) och varje processteg introducera någon fel som måste kompenseras med att överdimensionera ytorna så att det finns reservminne att ta till - det gör också att det kommer ut väldigt mycket andraklassminne som inte klarar dom kraven som tex. SSD-minne i premium-segmentet kräver utan hittar ut i lågpris SSD, USB-minne och SD-minne med allt fallande kvalitetsklass och det i så stora mängder att det är svårt att hitta pålitliga chip (tex SD-minne) när man behöver för tex. industriell användning - och i industriell användning så tål man inte att en flash-minne börja tappa data efter 6 månader eller börja få skrivfel tidigt...

Man bryr sig heller inte i konsumentledet längre om att dessa flashminne skall hålla sin data vid strömlös förvaring någon längre tid - att det skall hålla datat intakt 1 år strömlöst när minnena har kört sin maximala P/E - gäller inte i praktiken längre, jag började tappa data på en SSD-disk redan efter 9-11 månader vid strömlös förvaring på minne som inte hade mer än max 4 P/E-cykler - dvs. knappt ens inkört, och då skall denna ändå kunna köras upp till 1000 P/E-cykler...

Skall man ha bra retention-tid på sina data för strömlös förvaring över lång tid så är fortfarande snurrdisken säkraste förvaringen (tillsammans med välbränd och verifierad optisk media av bra fabrikat) - snurrdisk-tillverkarna designar fortfarande att datat väl skrivet på en HD:s diskyta skall hålla i minst 10 år - men även de lider av att flashminnen blir av allt sämre kvalitet på tex. kontrollerkortet på hårddisken - datat på själva skivorna är friskt men med risk att kontrollern som skall läsa datat kanske inte fungerar efter säg 10 år pga. korrupt flash-minne...

Permalänk
Inaktiv

@xxargs: Tackar för den fina uppsatsen av en riktig insatt person!

Permalänk
Medlem

Jag tycker behovet av lokal lagring minskat brutalt mycket. Så hör ser det ut för mig (klippt från annan tråd)

2001 hade min huvuddator 80 GB.
2004 hade min huvuddator 250 GB + 72 GB Raptor 10k.
2007 hade min huvuddator 2 TB + 72 GB raptor.
2010 hade min huvuddator 5 TB + 80 GB SSD.
2017 har min huvuddator 256 GB SSD. Har dock tillgång till långt mer material än tidigare (ondemand)

Permalänk
Inaktiv

För de av oss som var med redan när 1 GB lagringsutrymme i en HDD kändes som långt in i framtiden eller för den delen 1 TB så känns 1 PB inte orimligt. Men som @xxargs bra inlägg ovanför är inne på är det svårt och framförallt dyrt med dagens kunskap och tillverkningsteknologi.

Alternativa lösningar finns men att någon av dessa på allvar skulle ta över känns... tveksamt. Och långt bort i tiden. Men det tyckte många av de storlekar vi idag tar för givet trots allt.
Bara en sån sak som att jag själv fipplade med disketter på 1,44 MB på 90-talet och idag har jag små Micro SD-minnen på 128GB..... galet och häftigt på så många vis.

Behovet av lagring kommer tvinga utvecklingen framåt. I tider där man inte nödvändigtvis skickar stora mängder data med internetinfrastruktur utan kör den på lastbilar så finns behoven. Och kanske lösningarna med, där vi inte tittat.

Vi lever i en intressant tid, både sett till närtid men även historiskt. Vem vet vad vi har för något bara fem år framåt i tiden. Holografisk lagring? Biologisk lagring?

Permalänk
Inaktiv
Skrivet av PlogarN97:

Jag tycker behovet av lokal lagring minskat brutalt mycket. Så hör ser det ut för mig (klippt från annan tråd)

2001 hade min huvuddator 80 GB.
2004 hade min huvuddator 250 GB + 72 GB Raptor 10k.
2007 hade min huvuddator 2 TB + 72 GB raptor.
2010 hade min huvuddator 5 TB + 80 GB SSD.
2017 har min huvuddator 256 GB SSD. Har dock tillgång till långt mer material än tidigare (ondemand)

Något liknande här. Av de år där jag minns någorlunda:
2001: 30 GB, DVD-läsare och CD-brännare samt 3,5" floppy fortfarande.
2002: 40+40GB, DVD-läsare/CD-brännare + 3,5" flooppy.
2004: 80+40+40GB, DVD-läsare + CD-brännare, ingen floppy längre.
2007: 400GB+160GB, DVD-läsare + brännare.
2009: 80GB SSD + 2x1TB+750GB
2012: 256GB+256GB SSD + 2 TB+ 1 TB
2015: 256GB+256GB+256GB SSD, ingen mekanisk lagring.
2017: 500GB NVMe, 250GB+500GB+1TB SSD, 4TB HDD.

Jag har oftast haft någon form av nätverkslagring och denna har jag inte räknat med. Har dock minskat behovet av lokal lagring rejält.

Permalänk
Medlem
Skrivet av Baxtex:

This.

Är det inte snarare så att folk är i behov av mindre lagring nu än förr? De allra flesta streamar musik&film och laddar upp bilder&video till molnet. Tror behovet iallfall stagnerat lite och inte ökar lika snabbt som förr. Däremot så ökar ju behovet snabbt som attan för företag.

Med tanke på hur folk fotograferar och lägger upp på fejan och på tuben mfl. platser så har det nog aldrig producerats så mycket data som idag, men förvaringen är 'outsourcad' och man betalar genom ge bort sina rättigheter i sitt alster i mastiga licenstexter som ingen läser innan man trycker på OK...

Hårddisktillverkarna är också medvetna om det och därför håller produktionen av HD gå ifrån många mindre enheter (desktop-diskar som nu håller på att bli helt utslagna av SSD) till färre enheter med mycket större kapacitet, varav Seagates 8TB archive-disk var den första rejäla tecknet på riktningen utanför enterprise-världen för typ 2 år sedan och sedan har de andra HD-tillverkarna hängt på och det finns numera både 10 och 12 TB att köpa eller kan köpas inom snar framtid. - och en stor del av marknaden är riktad mot företag som hanterar molntjänster och allt mindre finns att välja att köpa för konsumenter.

På volymförvaring så konkurrerar inte SSD och snurrdisk - SSD är för dyrt för volymlagring och kommer vara så länge än, och troligen kommer aldrig någonsin att konkurrera riktigt med magnetlagring om man tittar på pris per byte och retention-tid, Dessutom är SSD dålig för jobbet att lagra data långa tider utan strömsättning och risken är skriande högt för korruption om man inte har väldigt feltolerant högre filsystem med mycket redundans ovanpå dessa.

Externa USB-diskar är också en marknad som blir allt viktigare för HD-tillverkare när folk upptäcker att den interna 250 GB SSD börja bli smockfull och inte vill lägga delar av innehållet på molntjänst (inte bara för kostnaden för molntjänsten utan också att linan är långsam eller att man måste betala per GB för volymöverföringen om det går via telefonoperatörer... - ...eller för att man förlorat data på en molntjänst som kastade in handduken helt plötsligt och man fick inte ut sitt innehåll i tid....) - därför har det dykt upp ett antal ganska så fläskiga externa USB 2.5" diskar varav de största är på 5TB idag. - men skall man skyffla data snabbt så är fortfarande 3.5" diskar som gäller med nästa dubbla farten av vad en 2.5"-disk mäktar med.

Permalänk
Medlem

Den här tråden blev väldigt intressant. Kul att ni som har spetskompetens eller är orderntligt insatta resonerar kring det här. Men ni nämner saker om petabyte lina, streaming osv. Men faktum är att många människor fortfarande föredrar sin egen hantering av data. Fildelningdelning t.ex. har ju varit på kritan i hur många år som helst. Jag själv började så pass sent som med Napster när det fortfarande var lagligt i början på 00-talet. Men fenomenet har ju funnits redan många år tidigare när man organiserat delade/kopierade kassettband, vinyler osv. Jag är inte helt övertygad om streaming kommer att slå ut fildelning helt och hållet. Inte ens över en 20 års period... Lite beroende på hur internet påverkas och kontrolleras.

Ta PLEX t.ex. Där har vi både musik, fotografier och film. Netflix har globalt sett 13 300 filmer idag. Amazon har 3 gånger mer... Skulle man ha sitt egna "Netflix" hemma, precis som grundtanken med PLEX är, och varje film skulle ligga på 12 GB styck så skulle vi hamna på drygt 160 TB. Det är "bara" 13 000 filmer som sagt... Det låter mycket men i en Ikea billy bokhylla med 2 extra hyllplan får det plats knappt 1000 blu-ray om man staplar hela vägen. Det betyder att det (ungefär) är 13 fulla bokhyllor. Det kan tyckas vara mycket men faktum är att många välbärgade filmsamlare har mycket mer än 13 bokhyllor hemma. Är man verkligt dedikerad filmsamlare så kanske man har ett stort bibliotek i sin herrgård. Frågan är inte hur många filmsamlare med en mer normal plånbok inte skulle vara intresserad av ett sånt bibliotek om det var lite mer lätt tillgängligt. Sedan får vi också komma ihåg att det är 12 GB per fil... EN okomprimmerad blu-ray tar 50 GB ungefär, jag vet inte hur mycket en 4K Blu-Ray ligger på men vissa kanske vill ha okomprimerade 8k blu-ray i framtiden...

Bortser vi från film så har vi också amatörfilmare eller "prosummers" som kanske köper en filmkamera för 50 tkr. En filmkamera för 50 tkr om 20 år lagrar troligtvis mycket större filer, rimligtvis i 8K raw format eller något liknande. Det är enorma datamängder, och oklippt material om man har enskild firma eller är hobbyist kanske man behöver ganska rediga hårddiskar...

Samma sak tänker jag gäller spel. Låt oss säga 8k spel på PC med grafik som kanske kan vara svår eller omöjlig att urskilja från film? Det kanske dröjer lite längre än 20 år innan vi har identisk spelgrafik (eller åtminstone identisk fysik) som man har i en hollywood film. Men när det går åt det hållet kan man också fråga sig hur mycket plats de spelen kommer ta. Det vet inte jag i af...

Så det där med att streaming är framtiden... Det vet jag inte om jag köper. Eller jag vet inte om jag tror på det i af. Kanske längre in i framtiden men kanske inte de närmsta 20 åren. Däremot köper jag att vi kommer få hög kapacitets SSD och hårddiskar med rörliga delar kommer att dö ut... Ganska säker på det.

Permalänk
Medlem
Skrivet av PlogarN97:

Jag tycker behovet av lokal lagring minskat brutalt mycket. Så hör ser det ut för mig (klippt från annan tråd)

2001 hade min huvuddator 80 GB.
2004 hade min huvuddator 250 GB + 72 GB Raptor 10k.
2007 hade min huvuddator 2 TB + 72 GB raptor.
2010 hade min huvuddator 5 TB + 80 GB SSD.
2017 har min huvuddator 256 GB SSD. Har dock tillgång till långt mer material än tidigare (ondemand)

Spelar man så går det dock mer och mer plats.
Är inte alls förvånad om vi spräcker en TB per spel om "några" år. Gears of War 4 tar ju över 100GB nu tydligen.

Visa signatur

i9 11900k ||32GB 4000MHz CL15||ASUS ROG STRIX Z590-E||Noctua NH-D15s
Intel Arc a750 ||Samsung 980 pro|| EVGA Supernova G3 850W
Asus xonar essence STX|| Lian-Li O11 Dynamic XL
Asus VG27AQ 165Hz IPS, Sennheiser HD650, Logitech g502 Hero, fUnc f30r, Vortex TAB90M, Audio-Technicha ATR2500x-USB
Server: x10SL7-F, Xeon E3 1230v3, 32GB Samsung ECC ram, 6x3TB WD RED, FD Node 804.

Permalänk
Avstängd

@Xhrone: Huruvida streaming (mer eller mindre) helt kommer att slå ut fildelning är ju helt upp till filmbolagen (och TV-bolagen förstås). Kommer de att komma överens om att låta alla streamingtjänster ta del av allt material, som skivbolagen i stort har gjort redan, så är chansen ganska god i mina ögon. Än mer om kvaliteten på streamingen går upp i takt med hastigheten på våra uppkopplingar, även om det inte verkar vara så viktigt för merparten av befolkningen (varken när det gäller musik eller video, exempelvis Spotify och Netflix). Jag hoppas att de kommer att komma till den insikten men det kommer nog inte att ske förrän vi har kommit förbi utsänd TV för de är ju främst de som ställer till det med rättigheter och exklusivitet idag, men när det sker så finns det ingen direkt anledning för producenterna att inte maximera sina intäkter genom att finnas tillgängliga på så många ställen som möjligt.

Folk kommer att bli tvungna att släppa den här samlarmentaliteten då den inte är rimlig längre. Det var tydligt när Napster slog igenom och många musiksamlare samlade för allt de var värda och ganska snart hade mer musik än de skulle ha tid att lyssna på under hela livet. Har man 13000 filmer, vilket faktiskt är ganska extremt, så kan man se en ny film om dagen i drygt 35 år liksom.

Så (riktigt) stora diskar kommer nog främst att vara intressant för de som filmar stora mängder högupplöst video själva och som vill ha allt innehåll lokalt av någon anledning. Också framtida format som 360-graders video för konsumtion i VR om det slår igenom och liknande förstås. Men jag tror ändå att den gruppen inte kommer att vara så stor även om den förstås kommer att växa gentemot idag. Molnlagring lär inte försvinna och utbudet av sådana tjänster kommer att växa, gå ner i pris, och gå i olika inriktningar så merparten av konsumenter lär klara sig rätt bra på dem.

Spel kommer också att öka i storlek förstås. Högupplösta texturer och liknande. Men förr eller senare så når man en gräns där det blir så dyrt att producera mer högupplöst innehåll för spelen att det tar stopp.

Permalänk
Medlem

Ja det mesta verkar ju följa Moore's Law någorlunda väl hittils så verkar ju inte allt för avlägest med PB.
https://en.wikipedia.org/wiki/Moore's_law

Visa signatur

There are 10 types of people in the world: Those who understand binary, and those who don't...

Asus Maximus VIII Hero | i7-6700K | ASUS GeForce GTX1070 Strix 8GB | G.Skill F4-2133C15Q-32GRK |

Permalänk
Medlem
Skrivet av PlogarN97:

Jag tycker behovet av lokal lagring minskat brutalt mycket. Så hör ser det ut för mig (klippt från annan tråd)

2001 hade min huvuddator 80 GB.
2004 hade min huvuddator 250 GB + 72 GB Raptor 10k.
2007 hade min huvuddator 2 TB + 72 GB raptor.
2010 hade min huvuddator 5 TB + 80 GB SSD.
2017 har min huvuddator 256 GB SSD. Har dock tillgång till långt mer material än tidigare (ondemand)

Jag har också mindre lagring i datorn nu än förr, men samtidigt har jag skaffat en NAS med 12 TB lagring, vilket är mer än jag haft någon gång i lokal lagring. För min del kommer troligen detta utökas inom ~5 år med en enhet med fler diskfack.
Det känns som detta med en NAS som alltid är tillgänglig, private cloud, och möjlighet att kunna nå det var som helst över nätet är något som kommer växa. Många känner nog ändå att de vill ha sin data "hemma" och inte hos något amerikanskt företag typ Dropbox eller Google.

Sen är det som xxargs med flera säger, att till slut blir det fysiska begränsningar som sätter stopp. Allting blir så smått att det handlar om individuella atomer eller elektroner, och då blir det extremt svårt att hindra att data förändras och blir korrupt över tid.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem
Skrivet av WarWolf.667:

Ja det mesta verkar ju följa Moore's Law någorlunda väl hittils så verkar ju inte allt för avlägest med PB.
https://en.wikipedia.org/wiki/Moore's_law

Ledsen.. men den valpen är död:

https://www.technologyreview.com/s/601441/moores-law-is-dead-...
https://arstechnica.com/information-technology/2016/02/moores...

Och skulle han mot förmodan råka återuppstå så är han på intensiven med livshotande tillstånd...

Ang Tråden, tror att man får skilja på våra behov och vad som är möjligt.

Det är fullt tekniskt möjligt idag att göra PB lagring... men det är inte ekonomiskt för en privatperson. Oavsett om du går HDD eller NAND vägen så har du enorma hinder som mycket väl förklarats ovan, och när fysiken börjar ta emot, så skenar kostnader. Tror inte ens 2050 kommer detta att vara "prisvärt", om vi inte hittar någon helt ny väg att lagra data. Och tänk på att alla dessa nya tekniker tar tid...

SSD kom 2008 för första gången nära privatpersoner. Och nu 10 år senare börjar mindre versioner bli prisvärda nog att användas för vissa saker, men HDD dominerar än lagringen. Så... om vi 2030 hittar nytt sätt... lär det dröja till 2040 innan den ens i mindre skala är mainsteam.

Sen har vi behovet... har du verkligen behovet ens 2050?
Som sagt, vi har det mesta på moln-lagring idag, och det kommer växa, utan tvekan, men hemma har vi ofta fortfarande 0,5-1TB HDD/SDD.

Ev kanske man köper en ensam 2-6TB lagringsdisk, men hur ofta används den ens? Hur många har ens backup, eller inser att ska du lagra 1PB, behöver du sen ha 1PB till för backup, och gärna 2-3 backuper. Plötsligt är ditt behov inte 1PB, utan 3x 1PB...

Så jag tror att det vi kommer behöva mest framåt är större SSDer för att få plats med spel och sånt man jobbar med och 1-3 HDD för backup på detta... Sen är majoriteten nöjda. Naturligtvis kommer det finnas de som vill ha mer, utan tvekan, men de är få till antalet och mängden pengar de kommer få spendera gör att de flesta av oss andra kliar oss i huvudet.

Mina negativ i ett brandsäkrat skåp från gamla tiden kostar mindre än dagens lagring av alla digitala bilder... bara för att ta ett ex.

Permalänk
Medlem
Skrivet av xxargs:

- Multilevel 2D-minnena har spänningsdrift (en del skriver Volt-drift men det ser fel ut i mina ögon, men jag är lite old-school och skiljer mellan storheter och enheter och det ser tokigt ut när man använder enhet som storhet - gissar att det är engelskans voltage och Volt som stökar till det när källtexter på engelska översätts till svensk språkbruk...) och kända serier som har sådan är tex. Samsungs 850 EVO - för att de var tidigt ute med multilevel-minne (MLC och TLC-minne) - och nu kommer alla andra med samma typ av problem nu när de också bara kan köpa den typen av minne och håller på att lära sig läxan nu medans Samsung redan passerat stålbadet...

Antar att du menar 840 EVO, då 850 inte var 2D NAND som du pratar om

Skrivet av xxargs:

Skulle man inte köra med multilevel-minnen med 2-3 bitar per cell så skulle chipytan behöva ökas mångfaldigt med dom kapaciteterna som krävs idag och sådana minnen skulle vara så dyra att ingen har råd med dessa då priserna per GB skulle vara kvar på samma nivåer som för typ 7 år sedan och en 500 GB SSD skulle kosta minst 10 papp och disk-kapslingen skulle vara knökfull med bga-kretsar och där varje kapsel har multipla chip stackade på varandra - många kretsar på ett kretskort är heller inge bra för driftsäkerheten då det alltid finns produktions-issue vid montering och senare termisk stress på lödningarna vid temperaturväxlingar och dessutom är blyfritt numera....

Mja... 10 papp tror jag inte på.
Om du kan få 850 Pro (MLC) för ca 5000kr, så kommer en SLC version av 500GB storlek kosta 5000kr, give or take en marknadsandel. Men visst.. det är ändå hiskligt dyrt för 500GB

Skrivet av xxargs:

Man har ett problem till med 3D-minnen och det är att chipen blir dyra då det är så otrolig många processteg (för 48 lager så är det säkert över 200 masker som skall belysa samma bit kisel, etsas och joninplantera, metallager, lägga på kisel, oxider etc. ) och varje processteg introducera någon fel som måste kompenseras med att överdimensionera ytorna så att det finns reservminne att ta till - det gör också att det kommer ut väldigt mycket andraklassminne som inte klarar dom kraven som tex. SSD-minne i premium-segmentet kräver utan hittar ut i lågpris SSD, USB-minne och SD-minne med allt fallande kvalitetsklass och det i så stora mängder att det är svårt att hitta pålitliga chip (tex SD-minne) när man behöver för tex. industriell användning - och i industriell användning så tål man inte att en flash-minne börja tappa data efter 6 månader eller börja få skrivfel tidigt...

Största problemet är alla nötter som ska byta telefon var 12:e månad och naturligtvis ha 128GB i den också. Så alla tillverkare där skriker efter NAND, och i en premium telefon vill du inte ha dålig version, så SSDerna får konkurrens.

Dock säger jag, 200 maskiner eller ej, Samsung har ändå minst 6 st diskar som säljs baserade på detta 3D NAND. Bara i konsument är det 2 high-end M.2 enheter 960, och på SATA är det två 850 enheter, sen har de minst 2 st Enterprise klassade enheter, och alla telefoner, plattor mm. De har dock valt att inte sälja bättre versioner till öppna marknaden, utan gör sina egna SD-kort mm av dem och allt bättre används i andra enheter.

Så om något är det andra tillverkare som tex Intel/Micron (Crucial) som har problem, där tom 32-lager visat sig vara en utmaning de knappt klarar av. Toshibas sitter tydligen i iPhone så de har kunder, men inte än i SSD marknaden för sin gen 2/3 av 3D NAND.

Där är alltid utmaningar i tillverkningar och jag tvivlar på att Intels 10nm CPUer kommer bli felfria de heller. Men de löser det...

Skrivet av xxargs:

Man bryr sig heller inte i konsumentledet längre om att dessa flashminne skall hålla sin data vid strömlös förvaring någon längre tid - att det skall hålla datat intakt 1 år strömlöst när minnena har kört sin maximala P/E - gäller inte i praktiken längre, jag började tappa data på en SSD-disk redan efter 9-11 månader vid strömlös förvaring på minne som inte hade mer än max 4 P/E-cykler - dvs. knappt ens inkört, och då skall denna ändå kunna köras upp till 1000 P/E-cykler...

Skall man ha bra retention-tid på sina data för strömlös förvaring över lång tid så är fortfarande snurrdisken säkraste förvaringen (tillsammans med välbränd och verifierad optisk media av bra fabrikat) - snurrdisk-tillverkarna designar fortfarande att datat väl skrivet på en HD:s diskyta skall hålla i minst 10 år - men även de lider av att flashminnen blir av allt sämre kvalitet på tex. kontrollerkortet på hårddisken - datat på själva skivorna är friskt men med risk att kontrollern som skall läsa datat kanske inte fungerar efter säg 10 år pga. korrupt flash-minne...

Nordic hardware håller på att testa SSDers retention, efter 1000TB skriven data. Är lite extrem mängd imho, då de flesta av dem inte tål mer än några få 100 enligt garantin, men ändå.

Jag har mina tvivel på dessa <50nm spårbredd HDD istället, då när de börjar nå så tajta marginaler att minsta rörelse kommer riva sönder hela disken. De har svårt att få dem hållbara nog idag tycker jag.

Permalänk
Hjälpsam

"No one will ever need more than 512kb of memory"

Bill sade aldrig något om lagring dock. Men trenden att streama mer än lagra minskar mängden data överlag som man behöver offline. Ser man till datorer som säljs mainstream så har man gått allt mer från 500GB-1TB diskar till 128-256GB SSD och det är få klagomål på avsaknad av lagring.

Så PB för konsumentlagring ser jag inte i den närmaste tiden även om enterprisediskar för big data kommer nog finnas tillgängliga.

Visa signatur

Allt jag säger/skriver här är mina egna åsikter och är inte relaterade till någon organisation eller arbetsgivare.

Jag är en Professionell Nörd - Mina unboxing och produkttester (Youtube)
Om du mot förmodan vill lyssna på mig - Galleri min 800D med 570 Phantom SLI

Permalänk
Medlem

Nånstans nås väl någon slags gräns för datatäthet, där atomernas/molekylernas storlek sätter absoluta och oöverstigliga gränser för hur små man kan göra cellerna. Vet inte när det skulle inträffa, men känns som man inte är så värst långt därifrån nu, när det snackas ensiffriga antal nanometrar i litografisammanhang.

Visa signatur

Nu lurade jag dig att slösa bort ett par värdefulla sekunder av ditt liv på att läsa denna fullständigt poänglösa signatur!

Permalänk
Medlem
Skrivet av Fluf:

"No one will ever need more than 512kb of memory"
...

Pssst... 640KB.
Att Bill ens har sagt detta eller ej är en annan debatt.

Permalänk
Medlem
Skrivet av SolidReactor:

Pssst... 640KB.
Att Bill ens har sagt detta eller ej är en annan debatt.

Jag har hört att svenska televerket utryckte något sånt för många år sedan. Men om jag inte minns fel så gällde det modemhastigheter på 80-talet. Vet inte om det var något offentligt uttalande eller om man hade en dialog med sammarbetspartners och bolagschefer.

Något i stil med...

"Man kommer aldrig behöva mer än x bps."

Permalänk
Medlem
Skrivet av Paddanx:

Nordic hardware håller på att testa SSDers retention, efter 1000TB skriven data. Är lite extrem mängd imho, då de flesta av dem inte tål mer än några få 100 enligt garantin, men ändå.

Jag har mina tvivel på dessa <50nm spårbredd HDD istället, då när de börjar nå så tajta marginaler att minsta rörelse kommer riva sönder hela disken. De har svårt att få dem hållbara nog idag tycker jag.

det har skrivit till och ifrån problemet med just telefoner och paddor suger upp väldigt mycket högklassigt minne och samsungs nedlagda nallemodell så var det väldigt mycket högkvalitativ minne som kom utom räckhåll för den övriga marknaden och de suckade...

1000 TB håller jag med att det är långt utanför vad konsument förbrukar på en SSD:s livstid - jag är uppe i 29TB efter 31000 timmar och disken kommer förmodligen förringas i användning eller bytas ut pga. för lite storlek eller att det blir fel i denna innan dessa är skrivmässigt utslitna.

HD är redan idag kring 50 nm spårbredd och hittills tycker jag inte att de uppvisar mindre pålitlighet än tidigare - skulle nog säga att det är snarare omvänt, om man i alla fall jämför med diskarna på runt 750MB - 10 GB för något årfemtonde sedan med deathstar och maxtor-diskar med motorstyrningkrestasr som brinner - samt en bunt WD-diskar från runt 2010 där felen uteslutande verkar vara kretskortskontroller-natur - det var länge sedan jag såg en disk med fysiska skador invändigt.

Tycker mig har tillräckligt hyfsa underlag att runt 50 nm håller nu med typ 8 st 8TB-diskar varav hälften av dessa har varit igång 24/7 i snart 2 år och andra halvan som backup utan minsta lilla hicka...

visst det har funnits modellspecifika modeller som stuckit ut - men så har det alltid varit och alla disktillverkare har haft mörka tider med dåliga serier mer än en gång

Permalänk
Medlem
Skrivet av SysXpl:

Jag har hört att svenska televerket utryckte något sånt för många år sedan. Men om jag inte minns fel så gällde det modemhastigheter på 80-talet. Vet inte om det var något offentligt uttalande eller om man hade en dialog med sammarbetspartners och bolagschefer.

Något i stil med...

"Man kommer aldrig behöva mer än x bps."

Ja du, hörsägen vettu Rykten som sprids från mun till mun brukar bli tokigt i slutändan.
Här har du något att läsa om detta så du kan använda termen "mindre felaktigt" (då den anses vara felaktig i sig)
http://www.computerworld.com/article/2534312/operating-system...