Vad ersätter hårddisken?

Permalänk
Medlem

Med tanke på allt detta om ljudkvalitet och liknande, när jag gick med i Ubernet för antal år sen så läste jag om en artikel från USA där dom hade testat skillnaden mellan VBR enkodade MP3or på det sättet som Ubernet gör och med ngt lossless format, FLAC kanske? Dom hade avlyssnat med samma utrustnging och tagit 20st audiofiler och bett dom lyssna och bara 1 av de 20 kunde höra skillnad på de VBR MP3orna och lossless formatet. Det övertygade mig att överge mitt arbete och fufflande med FLAC som jag höll på med på den tiden. jag tror fortfarande på det. Ngn som kan hitta den artikeln? Tex jag med mina Sennheiser HD 25-1 och ett X-FI och NAD L54 med DALI Concept 1, är det ngn ide för mig att ens försöka satsa på annat än MP3 VBR/Spotify Premium ? Jag tror ju personligen att jag inte skulle höra ngn skillnad alls Men det vore ju helt klart trevligt att få höra ngn skillnad

Visa signatur

Linux Manjaro XFCE på en MacBook Pro late 2013, gammal slö Asus X202E, Nintedo Switch, gamla Huawei 20Pro

Intel är apartheid

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av SkunkFunk
Det andra skälet är att snålkodat ljud har fler nackdelar än bara ljudkvalitén. Till skillnad från linjärt ljud så kan inte perceptuellt kodat ljud behandlas i senare skeden. Framtidens hemmabiosystem kommer mer och mer erbjuda olika signalbehandlingar som eq, rumskorrigering och psykoakustiskt trixande. För att sådan behandling ska fungera bra kan man inte ha en ljudkvalité som är anpassad efter kravet på slutkvalité, man behöver mycket mer. Vi kommer också se mer i stil med squeezebox, system för att skicka runt ljudet i hemmet - och även då kommer samma problematik upp. En högkvalitativt komprimerad ljudfil som komprimeras igen kommer, även om det är samma algoritm båda gångerna, inte längre hålla samma höga kvalité. Kodarna kan inte se skillnad på vad som är önskad signal och oönskat kvantiseringsbrus och kommer därför koda in båda delarna, samtidigt som den lägger på eget kvantiseringsbrus. Med tanke på att framtiden ändå kommer erbjuda bättre bandbredd och större lagringsutrymme, vore det inte bäst att bara gå till linjärt ljud direkt i stället för att försöka polera snålkodningen?

Jag hoppade till ganska mycket när jag läste att det är Anders Ågren som sagt det, då jag har honom som föreläsare i en kurs jag läser för tillfället. Han är väldigt duktig på rumsakustik, motorbuller, högtalare och psykoakustik, men jag hade inte vänt mig till honom på skolan om jag ville tala om ljudkodning. Har du någon källa till uttalandet? Annars kan jag eventuellt tala med honom personligen på tisdag och se vad han har att säga.

Men här var det ju FLAC det pradtades om. FLAC är inte "snålkodning" på samma sätt som t.ex. mp3 är.
Utan komprimerar du och avkomprimerar du en datamängd med FLAC så har du exakt samma data som innan, ingen information går förlorad vid komprimeringen. Jämför med zip/rar/gzip/bzip eller andra komprimeringsformat utanför ljudvärlden (det skulle inte duga om projektrapporten jag precis skickade in, komprimerad skulle innehålla en massa stavfel när den packades up). Mp3 i sammanhanget skulle väl motsvara jpeg, drar du upp komprimeringen där så förlorar du mer och mer information.

Visa signatur

I \w+ regular expressions.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Bacon
http://www.ideafinder.com/guest/archives/wow-duell.htm

Det där är en myt...

OK, kul sagt även om han nu inte sa det..

Visa signatur

Blessed is the mind too small for doubt.

Permalänk
Citat:

Ursprungligen inskrivet av emil_fh
Nu är jag kanske konservativ, men jag har verkligen svårt att se hur en privatpersion någonsin kan behöva så mycket utrymme.

Visst i dagens situation går det lätt att fylla upp 1TB utan problem, och mer därtill. 40 terabyte, det är inte att leka med. Det som tar plats på hårddisken är väl egentligen om man har högupplöst video, så är det för mig. Visst, spel, stora mängder bilder från systemkamera, installerade program, om man fortfarande har musik på hårddisken osv osv... Men... 40 terabyte!!!

Windows 10

Permalänk
Medlem

Det här med ljud. Det finns många "experter" som säger att de kan höra skillnad på ljudet beroende på vilken kabel man använder.
Vilket är skitsnack. Har varit flera tester där "experter" har kommit in och lyssnat och inte kunnat höra skillnad mellan en kabel på tusentals kroner och en för 100kr.

Det är er egen hjärna som lurar er. Bara för att ni ser att priset är högre eller hur många bitar ljudfilen är på så är det automatiskt "bättre"

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av joar
Jag sätter mina pengar på att det kommer bli allt vanligare att man istället för att köpa sig en lokal disk kommer att hyra in sig på någon diskserver online, som komplement till sina lokala diskar.

Nja, det är nog tyvärr inte troligt för några större datamängder. Betydligt större datamängder än idag, javisst, men bandbredd kommer så att säga alltid vara mindre tillgängligt än lagringsutrymme av fysikaliska skäl.

Du har säkert helt rätt i att detta kan användas som komplement till lokala diskar/SSD/whatever, så sker ju redan idag, men hela vårt lagringsbehov kan inte tillgodoses på nätet. Tekniskt sett går det ju, men accesstider och överföringshastigheter kan aldrig matcha en lokal enhet. Bandbredd brukar tiodubblas på tio år, medan lagringskapaciteten ökar med en faktor tusen.

Edit: En trend som däremot säker kommer fortsätta är streaming. Material som är identiskt för flera användare och där linjärt flöde är viktigare än random access (t.ex. film och musik, helt uppenbart) finns det ju inte så stor anledning att ha i lokala kopior överallt. Men när det kommer till generell data som är unik för en användare och där överföringshastigheten och accesstiden blir viktig kommer även fortsättningsvis lokal lagring att ha stora fördelar. Man får ju förstås inte glömma att även lagring över nätet också måste ske på lagringsmedia någonstans, så prognoserna över hur stort utrymme som kommer behövas håller. 40 TB för $40 på en enhet är rentav rätt lite, som en 250 GB-disk idag eller nåt. Då liksom nu kommer många entusiaster ha fler än en disk i sina system.

Visa signatur

http://www.theatlantic.com/national/archive/2012/05/how-the-p...
"If there's a simple lesson in all of this, it's that hoaxes tend to thrive in communities which exhibit high levels of trust. But on the Internet, where identities are malleable and uncertain, we all might be well advised to err on the side of skepticism."

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av JonkeNN^
SSD = Systemdisk
Mekanisk = Lagring

så tror jag det kommer att se ut i framtiden

Citat:

Ursprungligen inskrivet av Korkskruv
Så ser det ut idag.

För vissa. För oss entusiaster. Det typiska med "utveckling" är att man knappt ser när den pågår och det är lätt att tala om framtiden som om den konceptuellt skulle skilja sig åt från idag. Ibland säger man rent av "i framtiden tror jag..." följt av något som var omodernt i förrgår (bildtelefon är en klassiker). Men i detta fall tycker jag att man kan ge JonkeNN^ helt rätt; SSD som systemdisk hör framtiden till, vilket inte hindrar att somliga av oss redan är där. Men det går inte så fort man skulle kunna tro och än så länge köps märkesdatorerna med HDD för system.

Citat:

Ursprungligen inskrivet av Chamezz
Framtiden:
SSD = Systemdisk, om ännu snabbare inte finns tillgängliga.
Lagring = Kommer inte behövas på din egen dator, allt streamas från kraftiga servrar via 10GBit fiber-linor.

Men det är ju bara hur Mitt 2020 ser ut.

10 GBit är långsammare än vad framtidens lagringsenheter kommer ha i överföringshastighet, så varför kompromissa? När det gäller material som kan streamas, javisst, men det gäller långt ifrån alla typer av data. Överföring på nätet kommer alltid vara långsammare än lokal dito, men det viktiga är huruvida en teknik är tillräckligt bra för ett specifikt ändamål. Så, det kommer antagligen se ut precis som idag; vissa saker streamas, vissa saker lagras lokalt. Vad som förskjuts är mängden och typen av data men inga riktigt principiella skillnader är att vänta.

Visa signatur

http://www.theatlantic.com/national/archive/2012/05/how-the-p...
"If there's a simple lesson in all of this, it's that hoaxes tend to thrive in communities which exhibit high levels of trust. But on the Internet, where identities are malleable and uncertain, we all might be well advised to err on the side of skepticism."

Permalänk
Citat:

Ursprungligen inskrivet av boris_vodka
Du får tänka på att även det högupplösta materialet kommer vara ännu mer högupplöst om 20 år. På tio år har upplösningen femdubblats dvd->blue-ray. !!OM!! upplösningen fortsätter att femdubblas var tionde år kommer det högupplösta materialet ha 25ggr högre upplösning än dagens 1920X1080, det lär ta endel utrymme i anspråk.

EDIT: Vatsug hann före

Att det skulle femdubblar så vart tionde år är orimligt, det krävs extremt stor tum på en tv om du ska femdubbla fullhd idag och se skillnad. de flesta kan inte ens ha större än 42-60tum i vardagsrummet.
Det är isåfall om man har projektor så kan de utnyttjas. Men det kommer avta, om vi inte börja bo i palats med monster tvs/projektors.
hehe

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av FL3JM
I framtiden lär man inte ens behöva ha mer än en tunn klient hemma hos sig, allt "streamas" från en kraftig server. Aldrig mer behöva uppgradera hårdvara själv osv.
Man pröjsar bara en månadsavgift, and thats it!

...fast den tunna klienten år 2020 kan ändå vara en monstermaskin jämfört med dagens typiska PC. En enkel dator med bara 40 TB lagring och 512 GB minne eller något sådant, knappast mer än 64 futtiga kärnor...

Visa signatur

http://www.theatlantic.com/national/archive/2012/05/how-the-p...
"If there's a simple lesson in all of this, it's that hoaxes tend to thrive in communities which exhibit high levels of trust. But on the Internet, where identities are malleable and uncertain, we all might be well advised to err on the side of skepticism."

Permalänk

Om man har en tillräckligt bra cpu kanske man inte behöver ha större utrymme. Man kanske kan sitta med en 10GB integrerad hårddisk med ett operativsystem som komrimerar all data kontinuerligt.. En 4GB film blir på någon microsekund 4KB. Kanske, kanske inte...

Visa signatur

Hoppla hoppla, här va de helikoptersmörgås!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av helikoptermacka
Om man har en tillräckligt bra cpu kanske man inte behöver ha större utrymme. Man kanske kan sitta med en 10GB integrerad hårddisk med ett operativsystem som komrimerar all data kontinuerligt.. En 4GB film blir på någon microsekund 4KB. Kanske, kanske inte...

Den komprimeringsalgoritmen som kan bevara kvalitén från 4GB ner till 4KB skulle jag vilja se.

Visa signatur

Primär Dator: Asus Sabertooth Z97 Mark 2/USB 3.1 | Intel Core I7 5775C | 32GB RAM (DDR3 1600MHz) | Nvidia Geforce GTX 1070 (Asus Strix) | Corsair HX750i 750W | Fractal Design Define R5 | 3,5TB SSD + 3TB HDD + 64TB NAS + 36 TB Backup | Asus Xonar Essence STX II | Win10 Pro

Permalänk
Citat:

Ursprungligen inskrivet av 037
Men här var det ju FLAC det pradtades om. FLAC är inte "snålkodning" på samma sätt som t.ex. mp3 är.
Utan komprimerar du och avkomprimerar du en datamängd med FLAC så har du exakt samma data som innan, ingen information går förlorad vid komprimeringen. Jämför med zip/rar/gzip/bzip eller andra komprimeringsformat utanför ljudvärlden (det skulle inte duga om projektrapporten jag precis skickade in, komprimerad skulle innehålla en massa stavfel när den packades up). Mp3 i sammanhanget skulle väl motsvara jpeg, drar du upp komprimeringen där så förlorar du mer och mer information.

Nej, diskussionen handlar om mp3. FLAC jämför han med och säger att det är så bra vi NÅGONSIN kan behöva, eftersom man enligt något test inte ens kan höra om det är bra komprimerad mp3. Bara en sån sak som att han nämner att det är 300-400mbps indikerar att han syftar på mp3, eftersom bitraten inte kan låsas i en FLAC-fil. Dessutom kommer FLAC nästan ner i så låga bitrates. FLAC kan till och med göra så att ljudet tar större plats än linjärkodad PCM, men det är väldigt ovanligt. Att man itne hör skillnad mellan wav och FLAC är ju självklart!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MBY
...fast den tunna klienten år 2020 kan ändå vara en monstermaskin jämfört med dagens typiska PC. En enkel dator med bara 40 TB lagring och 512 GB minne eller något sådant, knappast mer än 64 futtiga kärnor...

Den datorn klara mao. med nöd och näppe palla nya heta windows 511 med extra mkt 3d effekter och buggar samt en mediaplayer som slukar mer och mer minne för varje sekund

Permalänk
Citat:

Ursprungligen inskrivet av Spawnbadboy
Det här med ljud. Det finns många "experter" som säger att de kan höra skillnad på ljudet beroende på vilken kabel man använder.
Vilket är skitsnack. Har varit flera tester där "experter" har kommit in och lyssnat och inte kunnat höra skillnad mellan en kabel på tusentals kroner och en för 100kr.

Det är er egen hjärna som lurar er. Bara för att ni ser att priset är högre eller hur många bitar ljudfilen är på så är det automatiskt "bättre"

Grejen är bara den att folk som påstår sig höra skillnad på kablar inte är någon form av experter. Det är ofta bara folk med pengar som till varje pris vill uppnå bättre ljud i sin anläggning. Visserligen kan en riktigt usel kabel påverka ljudetmåttligt, men annars är det inte möjligt att höra skillnad.

Och att man lurar hjärnan lätt i ljudsammanhang är ju självklart, men det betyder inte heller att alla har fel. Men det betyder inte att allting någon säger är fel, det betyder bara att man måste vara väldigt kritisk och undvika annat än blindtester. Men det finns seriösa forskare, tro mig.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av helikoptermacka
Om man har en tillräckligt bra cpu kanske man inte behöver ha större utrymme. Man kanske kan sitta med en 10GB integrerad hårddisk med ett operativsystem som komrimerar all data kontinuerligt.. En 4GB film blir på någon microsekund 4KB. Kanske, kanske inte...

Kort sagt nej. Komprimering har teoretiska begränsningar som är oberoende av hur mycket minne eller beräkningskapacitet du har. Som om det inte skulle vara nog ligger dagens komprimeringsalgoritmer inte alltför långt ifrån dessa informationsteoretiska gränser. Mer CPU och mer minne hjälper förstås en del, men komprimering är ett matematiskt problem som växer påtagligt exponentiellt med graden av kompression. De bästa algoritmerna idag kan kräva tiotals GB i RAM och hundratals timmar CPU-tid redan vid högst måttliga datamängder så som något tiotal megabyte. Dessa algoritmer ligger mycket nära de teoretiska gränser som finns men är ju långt ifrån praktiskt användbara (10 GB + 100 h för att komprimera 10 MB är ju helt opraktiskt) men komprimerar ändå bara några procent mer än praktiskt användbara lösningar som RAR etc. Testa PAQ eller WinRK så förstår du vad jag menar.

Observera att jag talar om generella data. Tillåter du förlustkomprimering för t.ex. film och musik kan graden höjas, men resultatet kan aldrig bli mindre än storlek - (data du slänger bort + konventionell komprimering). Förlust-algoritmer går i princip ut på att slänga bort rätt typ av data mer än att faktiskt komprimera något. Vilka data som kan slängas bort är, förutom ett matematiskt problem, föremål för kognitionspsykologi och sinnenas fysiologi.

Så, det är inte "kanske inte", det är tyvärr blankt nej på den punkten. Det är inte en fråga om teknologiutveckling.

Visa signatur

http://www.theatlantic.com/national/archive/2012/05/how-the-p...
"If there's a simple lesson in all of this, it's that hoaxes tend to thrive in communities which exhibit high levels of trust. But on the Internet, where identities are malleable and uncertain, we all might be well advised to err on the side of skepticism."

Permalänk
Citat:

Ursprungligen inskrivet av MBY
Kort sagt nej. Komprimering har teoretiska begränsningar som är oberoende av hur mycket minne eller beräkningskapacitet du har.

Om det inte handlar om genererad data förstås.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Korkskruv
Om det inte handlar om genererad data förstås.

Visst, men det är tämligen ovanligt med genererade data i större mängder. Ett problem med genererade data är också att man ofta slänger bort det som genererade och bara behåller data. Sedan när man ska komprimera, når man aldrig så små datamängder som behövdes för genereringen.

Men generellt sett komprimeras genererade data mycket bra, mycket bättre än genomsnittet, vilket beror just på att det handlar om genererade data.

All komprimering kan sägas handla om att hitta ett mindre dataset ur vilket data kan genereras. Men data som faktiskt inte innehåller redundans kan inte automatgenereras med mindre data.

Genererad data är inte generell data och det är faktiskt många gånger pragmatiskt att slänga bort genererings-parametrarna och komprimera datat i stället. Det är ingen fundamental skillnad. Genererad data tillhör bara typer av data som komprimeras mycket bra, vilket gäller idag såväl som i morgon.

Visa signatur

http://www.theatlantic.com/national/archive/2012/05/how-the-p...
"If there's a simple lesson in all of this, it's that hoaxes tend to thrive in communities which exhibit high levels of trust. But on the Internet, where identities are malleable and uncertain, we all might be well advised to err on the side of skepticism."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MBY

10 GBit är långsammare än vad framtidens lagringsenheter kommer ha i överföringshastighet, så varför kompromissa? När det gäller material som kan streamas, javisst, men det gäller långt ifrån alla typer av data. Överföring på nätet kommer alltid vara långsammare än lokal dito, men det viktiga är huruvida en teknik är tillräckligt bra för ett specifikt ändamål. Så, det kommer antagligen se ut precis som idag; vissa saker streamas, vissa saker lagras lokalt. Vad som förskjuts är mängden och typen av data men inga riktigt principiella skillnader är att vänta.

Det finns ju en ytterligare faktor att räkna in. Kopieringsskydd. Många stora företag kan kanske se nyttan av att hålla på sin programvara och låta vanliga människor koppla upp sig mot deras servrar för att spela. Så som man redan gör till viss del i wow och liknande spel. Med högre bandbredd kanske mindre och mindre del av spelet kommer finnas hos hemmaanvändaren. Spotify liknande tjänster fast med spel, program, video och musik. jag har för mig att jag läste en del för några månader sedan om att man ska kunna köra allt mer avancerade spel genom webläsaren.

Men jag bara spekulerar.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Danne980
Det finns ju en ytterligare faktor att räkna in. Kopieringsskydd. Många stora företag kan kanske se nyttan av att hålla på sin programvara och låta vanliga människor koppla upp sig mot deras servrar för att spela. Så som man redan gör till viss del i wow och liknande spel. Med högre bandbredd kanske mindre och mindre del av spelet kommer finnas hos hemmaanvändaren. Spotify liknande tjänster fast med spel, program, video och musik. jag har för mig att jag läste en del för några månader sedan om att man ska kunna köra allt mer avancerade spel genom webläsaren.

Men jag bara spekulerar.

Visst. Kopieringsskydd är ett starkt argument för streaming för vissa, men ett lika starkt argument mot för andra. Argumentet för är inte fullt lika genomtänkt som det emot; inget hindrar piratströmmar. Denna utveckling kan man ju se redan bakåt, så det är inga konstigheter. Precis som nu kommer säkert framtiden erbjuda båda lösningarna. Precis som idag kommer vissa föredra sina data lokalt även om det gäller film och även om det är opraktiskt.

Men just streaming av film och musik var ungefär vad jag menade med "tillräckligt bra". Bandbredden måste inte öka lika mycket som lagringen ökar i storlek för att mer och mer ska bli streamat. Det är ju ingenjörsmässigt förnuftigt också att ha vissa typer av speldata på server och vissa lokalt. Det är dålig resurshållning oavsett teknologinivå att streama över precis all data. Då måste du föra över dina programinputs till servern, och pingtider är inte precis vad folk gillar. Historiskt har det också varit så att resurser har blivit lokala och decentraliserade så fort tekniken medgett detta. Därför ersatte elmotorn ångmaskinen, minidatorn ersatte centraldatorn, internet ersatte "infonet" (eller man kan säga att internet konkurrerades ut innan det fanns för att återuppstå när det behövdes. Bevekelsegrunden för stora datornät var från början att distribuera data, lagring och beräkning, sedan kom mini- och mikrodatorn och gjorde allt detta lokalt i stället) och miniräknaren ersatte arkiverade logaritmtabeller, glödlampan ersatte solen ( ) och PCn ersatte terminalen (terminal-server finns ju som bekant fortfarande men det beror lite på andra saker, inte på att det inte gick att ha saker lokalt).

Så visst kommer mer och mer köras via webben och operativsystemet kan få en mindre betydande roll, men bara upp till en viss gräns och det handlar inte om att de lokala bitarna kommer stagnera, bara att nätlösningarna kommer öka snabbare i mångfald än lokala diton, en trend som egentligen funnits ett bra tag. Webbläsarspel exekveras förvisso i den lokala datorn och denna typ av "hybridlösningar" kommer säkert bli vanligare och vanligare, vilket också kommer kräva mer av den lokala hårdvaran. Det är inte frågan om någon antingen-eller-utveckling, men man kan vara rätt säker på att servrar på nätet inte kommer täcka hela vårt lagringsbehov på grund av accesstider. Vidare har vi starka säkerhets- och integritetsskäl för att inte lagra vissa typer av data i nätverk, speciellt inte publika sådana. Krypterade data hindrar inte trafikanalys, en nog så viktig säkerhetsaspekt.

Edit: Så dina spekulationer är i huvudsak riktiga tror jag; mer kommer att streamas. Men det hindrar inte att lagrings- eller beräkningsbehovet även lokalt kommer gå upp, tvärt om kan dessa vara förutsättningar för varandra. Så länge inget fån till politiker förbjuder privatpersoner att äga lagringsmedia kommer du ju alltid kunna köpa sådant, även om det är "tänkt" att vara till servrar. Om lagringsmarknaden för PC helt plötsligt skulle krascha av någon märkligt anledning skulle även serverlagring bli ofantligt mycket dyrare. Det är ju trots allt samma teknik.

Visa signatur

http://www.theatlantic.com/national/archive/2012/05/how-the-p...
"If there's a simple lesson in all of this, it's that hoaxes tend to thrive in communities which exhibit high levels of trust. But on the Internet, where identities are malleable and uncertain, we all might be well advised to err on the side of skepticism."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av SkunkFunk
Nej, diskussionen handlar om mp3.[...]

Ah, ser det nu, det var en bit som föll ur när jag läste citatet... (dålig kompressionsalgoritm mellan näthinnan och tolkningscentra kanske...)

Visa signatur

I \w+ regular expressions.

Permalänk
Citat:

Ursprungligen inskrivet av 037
(dålig kompressionsalgoritm mellan näthinnan och tolkningscentra kanske...)

hehe

Permalänk
Citat:

Ursprungligen inskrivet av Chamezz
Läs en gång till...

"Lagring = Kommer inte behövas på din egen dator..."

Så det som ersätter hårddisken enligt dig är att du lagrar din data på en hårddisk på en server? Har jag förstått dig rätt?

Bara för att du sätter en kabel på flera mil mellan din dator och hårddisken tar inte bort det faktum att du fortfarande använder en hårddisk.

Frågan i nyheten är vad ersätter hårddisken. Som systemdisk säger du en SSD och jag håller med dig. Som lagring säger du en hårddisk. (på en annan plats förvisso).

Du har ändå inte besvarat vad som ersätter hårddisken i framtiden.

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Medlem

Kom igen nu ni kan väl inte missförstå det han menar. Jag tycker det är väldigt uppenbart. Ansträng er..... Ledtråd: Han har strykit under en del av sin post.

Permalänk
Citat:

Ursprungligen inskrivet av Danne980
Kom igen nu ni kan väl inte missförstå det han menar. Jag tycker det är väldigt uppenbart. Ansträng er..... Ledtråd: Han har strykit under en del av sin post.

Men det är ju fortfarande inte en ersättare till hårddisken.
Om det är det som diskuteras vill säga. Det kanske det inte var.
Det kanske bara är allmänna framtidsdrömmar? Isåfall finns inga stationära datorer kvar utan vi bär våra datorer på kroppen och all data streamas från stora serverparker via Wifi 4.0 och lagras på servern iform av hologram.
Enligt min teori.

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Citat:

Ursprungligen inskrivet av mortifer666
Men det är ju fortfarande inte en ersättare till hårddisken.
Om det är det som diskuteras vill säga. Det kanske det inte var.
Det kanske bara är allmänna framtidsdrömmar? Isåfall finns inga stationära datorer kvar utan vi bär våra datorer på kroppen och all data streamas från stora serverparker via Wifi 4.0 och lagras på servern iform av hologram.
Enligt min teori.

Det verkar som om du förutsätter att servrar använder vanliga diskar till lagra data på. Det verkar som om du dessutom anser att servern endast skulle utnyttja en typ av lagringsmedia. En seriös server har ett komplext lagrings media som kan expandera över ett flertal servrar samt använda ett flertal olika lagringsmedier.

För oss konsumenter spelar det ingen roll om servern använder band, kassetter, ramdiskar eller olika sorters hårdiskar och liknande teknologier. Pratar man om om att ersätta hårddisken så menar man naturligtvis för konsumenten.

För oss konsumenter kan SSD:ar anses vara dyra. För ett stort företag är det en struntsumma. Kan de bygga en lagringsservrar baserad på SSD:ar som har mycket högre redundans än något annat lagringsmedie så kommer de ganska kvickt att gå över.

Permalänk
Citat:

Ursprungligen inskrivet av Korkskruv
Det verkar som om du förutsätter att servrar använder vanliga diskar till lagra data på. Det verkar som om du dessutom anser att servern endast skulle utnyttja en typ av lagringsmedia. En seriös server har ett komplext lagrings media som kan expandera över ett flertal servrar samt använda ett flertal olika lagringsmedier.

För oss konsumenter spelar det ingen roll om servern använder band, kassetter, ramdiskar eller olika sorters hårdiskar och liknande teknologier. Pratar man om om att ersätta hårddisken så menar man naturligtvis för konsumenten.

För oss konsumenter kan SSD:ar anses vara dyra. För ett stort företag är det en struntsumma. Kan de bygga en lagringsservrar baserad på SSD:ar som har mycket högre redundans än något annat lagringsmedie så kommer de ganska kvickt att gå över.

Jag är medveten om komplexiteten av serverlagring.
Men om vi förutsätter att vi kommer använda vår data likadant oavsett om den är lagrad på distans eller på datorn så kommer vi också kräva samma saker.
Det ska inte ta lång tid att komma åt bilder o filmer m.m. som exempel vilket egentligen plockar bort band eller kassetter pga accesstider.
Suveräna som backup, mindre bra att arbeta mot.
Ramdiskar är i regel snordyra och rätt känsliga men i kombination med band och kassetter är de ju bra. Fast ifall alla användare ska ha något motsvarande på en server så blir det lite overkligt och för dyrt.

SSD och hårddiskar i servern blir de som blir kvar.
Utvecklas hårddiskarna i samma takt som de gjort hittills så blir ju frågan ifall de kommer ersättas inom lagring för slumpvis access av SSD.
SSD har ju fördelar med hög hastighet (vilket ändå begränsas av serverns bandbredd ut mot nätet) och av att de alstrar mindre värme och drar mindre energi förutom att de även är mindre rent storleksmässigt.

Fast i de flesta serverparker så är redan kylningen väl utbyggd och storleken på diskarna brukar inte spela så stor roll.

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Citat:

Ursprungligen inskrivet av MBY
Kort sagt nej. Komprimering har teoretiska begränsningar som är oberoende av hur mycket minne eller beräkningskapacitet du har. Som om det inte skulle vara nog ligger dagens komprimeringsalgoritmer inte alltför långt ifrån dessa informationsteoretiska gränser. Mer CPU och mer minne hjälper förstås en del, men komprimering är ett matematiskt problem som växer påtagligt exponentiellt med graden av kompression. De bästa algoritmerna idag kan kräva tiotals GB i RAM och hundratals timmar CPU-tid redan vid högst måttliga datamängder så som något tiotal megabyte. Dessa algoritmer ligger mycket nära de teoretiska gränser som finns men är ju långt ifrån praktiskt användbara (10 GB + 100 h för att komprimera 10 MB är ju helt opraktiskt) men komprimerar ändå bara några procent mer än praktiskt användbara lösningar som RAR etc. Testa PAQ eller WinRK så förstår du vad jag menar.

Observera att jag talar om generella data. Tillåter du förlustkomprimering för t.ex. film och musik kan graden höjas, men resultatet kan aldrig bli mindre än storlek - (data du slänger bort + konventionell komprimering). Förlust-algoritmer går i princip ut på att slänga bort rätt typ av data mer än att faktiskt komprimera något. Vilka data som kan slängas bort är, förutom ett matematiskt problem, föremål för kognitionspsykologi och sinnenas fysiologi.

Så, det är inte "kanske inte", det är tyvärr blankt nej på den punkten. Det är inte en fråga om teknologiutveckling.

Nu är inte jag jätte-insatt i hur komprimering av filer fungerar rent kodmässigt, men om man ser alla filer som en lång serie binär kod 100101001010...osv. Skulle man inte helt enkelt bara kunna korta ner det genom att ersätta tex 00 med "a" och 11 med "b"? Eller varför inte gå ännu längre och ersätta tex 10010010 med "c". Sen översätter man bara tillbaka detta till 1:or och 0:or igen när man ska "packa upp" det. Beroende på hur långa kombinationer man orkar skriva in och byta till tecken så skulle man väl kunna korta ner/komprimera obegränsat mycket utan att egentligen förlora någon data. Eller är jag helt ute och cyklar nu?

Visa signatur

Hoppla hoppla, här va de helikoptersmörgås!

Permalänk
Citat:

Ursprungligen inskrivet av helikoptermacka
Nu är inte jag jätte-insatt i hur komprimering av filer fungerar rent kodmässigt, men om man ser alla filer som en lång serie binär kod 100101001010...osv. Skulle man inte helt enkelt bara kunna korta ner det genom att ersätta tex 00 med "a" och 11 med "b"? Eller varför inte gå ännu längre och ersätta tex 10010010 med "c". Sen översätter man bara tillbaka detta till 1:or och 0:or igen när man ska "packa upp" det. Beroende på hur långa kombinationer man orkar skriva in och byta till tecken så skulle man väl kunna korta ner/komprimera obegränsat mycket utan att egentligen förlora någon data. Eller är jag helt ute och cyklar nu?

Du har nog hakat upp dig på att det är ettor och nollor, och därför lika gärna också kan vara bokstäver. Ettor och nollor är bara symbolik, det kunde lika gärna heta a och b eller äpple och hallon. Huvudsaken är att det är två olika saker.

Säger vi att det skulle vara a-b-c-d man talar om i stället hade det behövts två bitar för att beskriva det. 00 för a, 01 för b, 10 för c och 11 för d till exempel. Vi har alltså inte sparat någon plats, det spelar ingen roll hur vi pratar om det, det är antalet möjliga alternativ som spelar roll. Kan en fil se ut på 1024 olika sätt behöver vi tio bitar. Om vi ger varje alternativ av dessa 1024 en varsitt japanskt tecken eller beskriver dem med binär kod spelar ingen roll.

Hur komprimering går till överlåter jag till någon annan, då jag förmodligen bara kommer skämma bort mig om jag går in på det området.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av helikoptermacka
Nu är inte jag jätte-insatt i hur komprimering av filer fungerar rent kodmässigt, men om man ser alla filer som en lång serie binär kod 100101001010...osv. Skulle man inte helt enkelt bara kunna korta ner det genom att ersätta tex 00 med "a" och 11 med "b"? Eller varför inte gå ännu längre och ersätta tex 10010010 med "c". Sen översätter man bara tillbaka detta till 1:or och 0:or igen när man ska "packa upp" det. Beroende på hur långa kombinationer man orkar skriva in och byta till tecken så skulle man väl kunna korta ner/komprimera obegränsat mycket utan att egentligen förlora någon data. Eller är jag helt ute och cyklar nu?

Jag orkar inte skriva världens text nu men det korta svaret är "nej" och det lite längre är "jo - det är precis så man gör". Och vad får man? Tja, den komprimeringsgrad som vanliga komprimeringsalgoritmer uppvisar!

Tänk efter nu: Ponera att du ska komprimera slumpmässig. Hur stor blir tabellen? Lika stor som datat! Hur lång blir pekaren till varje datadel? Lika lång som datadelen. Vinst? Nada - helt i enlighet med informationsteorins grundsatser. Slå upp begreppet redundans och entropi (entropi finns även i fysiken, den mening jag avser här är den informationsteoretiska) så klarnar det kanske.

Praktiskt exempel: "A" tar upp åtta bitar, "AB" tar upp 16. Hur många kombinationer av sexton bitar finns det? 65536. Hur lång måste pekaren vara för att täcka alla? 16 bitar. Komprimeringsgrad: 0. Är data redundant eller har låg entropi går det att komprimera, annars inte. Komprimeringsgraden beror på graden av redundans.

I själva verket är ju redan "C" åtta bitar, nämligen 67 i binärform, eller 01000011. Förekommer olika bokstäver i olika frekvens använder man ofta huffmankodning vilket har varit formaliserat sedan 1950-talet med känt tidigare. Telefonnummer har ett slags huffmankodning, det är därför det inte behövs tio siffror för att nå alla abonnenter i ett land med 9 miljoner invånare och det är framförallt därför som ett giltigt nummer aldrig har ett annan giltigt nummer som början (ingen har nummer 11 23 45 eftersom 112 går till larmtjänsten).

Tro mig, matematiken kring komprimering är väl förstådd och informationsteorins grund är mycket rigid med släktband till termodynamiken. Eftersom dagens praktiska algoritmer redan ligger hyggligt nära teoretiska gränser är inga fundamentala genombrott att vänta. Då och då hör man okritiska journalister (även datavetare och vetenskapsjournalister) rapportera om nya balla komprimeringssätt som lovar guld och gröna skogar. Det är alltid bluff, en form av datapseudovetenskap för att lura lättköpta investerare.

Visa signatur

http://www.theatlantic.com/national/archive/2012/05/how-the-p...
"If there's a simple lesson in all of this, it's that hoaxes tend to thrive in communities which exhibit high levels of trust. But on the Internet, where identities are malleable and uncertain, we all might be well advised to err on the side of skepticism."

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Korkskruv
Pratar man om om att ersätta hårddisken så menar man naturligtvis för konsumenten.

Det där var väl en väldigt skitnödig tolkning av nyheten? Nyheten behandlar vilka tekniker som ersätter befintliga tekniker på tekniknivå, inte vilka koncept som eventuellt avlöser varandra. Pratar man om att ersätta hårddisken och tar upp grundläggande tekniker så som PCM och STT-RAM talar man förstås om att ersätta hårddisken rent tekniskt och inget annat. Ingenting sagt om infrastruktur och lagrings-policies.

Visa signatur

http://www.theatlantic.com/national/archive/2012/05/how-the-p...
"If there's a simple lesson in all of this, it's that hoaxes tend to thrive in communities which exhibit high levels of trust. But on the Internet, where identities are malleable and uncertain, we all might be well advised to err on the side of skepticism."