Citat:
Ursprungligen inskrivet av Danne980
Det går inte sälja en (väldigt) långsam disk.... Utvecklingen har gått framåt. Det du skriver nu är ju bara en värdering. Du anser att fördubblad storlek kan jämföras mot fördubblad hastighet.
Det har jag aldrig påstått.
Citat:
Ursprungligen inskrivet av Danne980
Köparna av diskar har självklart ett krav på både hastighet OCH storlek. I dagsläget så kanske genomsnitts hårddisken ligger på runt 500GB. och 7200rpm. Ganska få användare utnyttjar dessa 500GB (Sweclockare är en minoritet om man räknar hur många pc´s det finns i Sverige). Borde inte då det vara en betydligt bättre affär att köpa en 500Gb disk med dubbla prestandan för priset x än vad det är att köpa en 1000GB disk med samma prestanda som den första 500GB disken. Folk är inte dumma detta kommer man komma underfund med själva.
Förstår du skillnaden mellan teknikval och exemplarval, skillnaden mellan tendenser och teknikutveckling och vad du väljer för enhet för ett specifikt syfte en specifik tid?
Citat:
Ursprungligen inskrivet av Danne980
HDD har sprungit ifrån användarna i storlek. Självklart finns de folk som vill rippa sina dvd/blu-ray filmer men ärligt talat så är dessa ganska få. Jag tror man kommer sälja färre 2TB diskar än 1TB diskar per såld pc. Det kommer komma en dag då 2TB är standard storleken på Hdd men då tror jag inte marknaden för hdd är alls lika stor som den är idag.
Snacka om att skriva värderingar. Börja inte nu igen med något sabla skitsnack, tack. Jag talar uppenbarligen ovanför ditt huvud. När jag talar om trender i teknikutveckling talar du om alternativ inom en och samma domän som existerar vid ett tillfälle under nominell progressiv utveckling.
Citat:
Ursprungligen inskrivet av Danne980
De flesta bör nog förstå att en genomsnitts kontors pc som exempel inte har någon nytta av mer än 80GB lagringsutrymme. I detta fall är det då ganska uppenbart att pcn har mer nytta av en Intel x25 till exempel än en 80GB hdd.
Vad fan har det med något att göra???
Citat:
Ursprungligen inskrivet av Danne980
Alltså finns det många fall som avviker från "störst är bäst". Jag väldigt svårt att se hur mans ska marknadsföra en sådan disk när ssd sjunker en bit ytterligare i pris. (X25-M 80 GB kostade 5500:-kr i Februari i år, vad kostar den (motsvarigheten) om ytterligare 6 månader eller 12?)
Tråkigt då att jag aldrig, aldrig någonsin påstått att "störst är bäst".
Citat:
Ursprungligen inskrivet av Danne980
Att lagringkapacitet ALLTID har vunnit över prestanda fattar jag inte alls hur du förklarar.
Men för i helvete! Det ÄR ju så, det är fakta, empiri, sanning. Kan du ens föreställa dig en värld där det hade varit annorlunda? Jag kan, och den världen avviker å det grövsta från hur det ser ut idag. Minneshierarkin hade sett diametralt annorlunda ut.
Citat:
Ursprungligen inskrivet av Danne980
Jag är ganska säker på att en 4200RPM disk borde kunna lagra MINST lika mycket data per area enhet som en 7200rpm disk. Om inte det är en kompromiss lär vi nog skriva om SAO.
Det kan den också, du yrar! Klart att det är en kompromiss, liksom alla typer av lagringsmedia som någonsin funnit och någonsin kommer att finnas, en kompromiss mellan olika faktorer så som pris, storlek, prestanda, livslängd, strömförbrukning, driftssäkerhet, etc, etc, etc, etc. Något som jag, inte du, har påtalat gång på gång på gång på gång på gång på gång på gång.
Citat:
Ursprungligen inskrivet av Danne980
Avslutar mer ett kontroversiellt uttalande: HDD kommer förpassas till externlagring. Man kommer inte vilja ha surrande, knattrande, varma och slöa lagringdiskar i en modern pc. Hastighet, dimensioner och ljudvolym kommer få mer plats i utvecklingen eller det har ju tydligen redan det. Utvecklingen på hdd kommer bromsas upp iaf speciellt den delen där man försöker få dem snabbare iaf.
SSD kommer förpassas till historiens skräphög och vi kommer lagra allt med casimireffekten i hallonbåtar. När då? Tja, jag säger inte när. Eftersom du inte säger när behöver väl inte jag göra det heller?
Försök inte flytta målsnöret. Vi diskuterar MLC versus SLC och upprepningen av generella trender i teknikskiften, inga djälva val du gör på personlig subjektiv basis om huruvida du köper märke X eller märke Y av enhet Z. Vi talar om varför du måste välja mellan olika Z när du, om historien sett annorlunda ut, kunde ha valt W. Ska det vara så sabla svårt att fatta? Att Z uppvisar en varians i dess egenskaper mellan märke och exemplar är så trivialt att det blir löjligt. Jämför Z med W, inte Z1 med Z2! Skillnaderna mellan Z1 och Z2 är försumbara, men det är en principiell skillnad mellan Z och W. W har också en varians. Raptor och bigfoot är två Z. W och Z är exempel på skillnader så som dynamiskt eller statiskt RAM eller MLC eller SLC, eller för den delen HDD eller SSD. Lagbundheten byggd på empiri säger oss att när Z och W tävlar om område T, tenderar en av två saker hända: Antingen dör den ena ut, vilket är det vanligaste. Eller, vilket är regel om både Z och W är etablerade, kommer applikation följa möjlighet och område T transformerar till T' och T'' där Z härskar i den ena och W i den andra. Med största sannolikhet är T' och T'' två tydliga exempel på två distinkta kompromisser baserat på principen om tillräckligt av "faktor F" för båda. Exempelvis RAM och cache, där båda har olika kompromisser mellan storlek och prestanda, vilket gör att cache är mindre och snabbare och RAM är större och långsammare (fanken anåda den viktigpetter som gärna kommer flika in att cache minsann också är RAM. Det är helt sant, men vi har en diskret uppdelning. MLC och SLC är också båda flash, men med en klar diskret uppdelning).
Det duger inte med linjära förhållanden (ditt snack om att jag påstår att 2 ggr hastighet och 2 ggr storlek på något sätt är jämförbart är bara taskiga påhopp från din sida), utan man måste tal till golv- och takfunktioner och ställa sig frågan om vad som händer när vi låser en parameter till tillräcklig snabb eller tillräcklig stor (eller billig, eller strömsnål, whatever). RAM har länge kännetecknas av att vara tillräcklig snabbt och cache av att vara tillräcklig stort. Detta betyder ingalunda att storleken och snabbheten inte förändras över tid. Om "tillräckligheten" inte uppfylls, gnager man så att säga in på något av de andra områdena, t.ex. offrar pengar och strömförbrukning för att få mer cache, eller tar till ad hoc-teknologier så som DDR för att få upp prestanda. Exakt samma förhållande gäller hårddiskar. Från början var de uteslutande 3600 RPM i desktop. Att det över huvud taget tillverkas 4200 RPM beror på att de är "tillräcklig snabba" så att man kan kompromissa bort lite strömförbrukning, formfaktor (mindre kapacitet) o.s.v. Hade urvalet alltid skett på de snabbaste enheterna hade vi haft en fullkomlig annorlunda typ av sekundärminnen sedan länge. Precis samma gäller MLC och SLC.
Varför argumenterar du så ohederligt? Vad har hårddiskens vara eller icke-vara med att göra att storlek vinner över prestanda vad minne beträffar? Vi talade ju om MLC versus SLC och jag förklarade att detta är historiens gång så som vi känner den. Historien upprepas, vilket varken är konstigt eller ens problematiskt. Det gäller bara att förstå varför. Förstå förutsättningarna, förstå historien, för att kunna extrapolera trender framåt.
Hårddiskar är en teknik och inom denna teknik finns ett spann av prestanda-storleksförhållanden, men poängen är förstås att den största kompromissen redan är gjord. En 7200-RPM och en 5400-RPM-disk är fortfarande två små variationer av en och samma teknik. Statiskt och dynamiskt RAM eller MLC och SLC är ovanför den nivån, en högre domän av kompromiss. Varje underteknik, t.ex. MLC finns och kommer att finnas med en variation där man gör nya kompromisser mellan storlek och prestanda inom de gränser som medges i den domänen. Ditt resonemang om avvägningar i valet av hårddiskar från 4200-varvare till raptor har ingen som helst bäring på det jag försöker berätta. Du förstår helt enkelt inte. Antingen väljer du att missförstå med flit, eller så är du lite trög i kolan.
Förnekar du att storlek vunnit över prestanda hitintills? Förnekar du det? Förstår du hur banala dina påståenden är angående att välja säg en 7200-varvare i stället för en 4200-varvare för att få prestanda, jämfört med vad jag säger om teknikutveckling i stort?
Ja, sov nu så kanske du vaknar med en liten skygglapp mindre.
Jösses vad jag börjar bli utled på denna insiktslöshet som härskar i dessa trådar, så till den milda grad att folk inte ens vet var ribban ligger. Fan, det är som att diskutera med folk som bor i Platons grotta!
Edit: Det är tydligen jag själv som måste komma med motexempel. 1 RPM-diskar och 100 000 RPM-diskar är inga motexempel, även om de funnits. Minns ni när jag sa att man också måste skilja på on-line- och off-line-minnen? Här kommer ett krystat motexempel: HDDn ersatte magnetband som sekundärminne, och HDDn är både mindre och snabbare. Men ack, det är förrädiskt. Datorhistorien är inte enkla spår att följa och tekniker har korsbefruktat varandra. Band har alltid varit det yttersta sekundärminnet, ett offline-till-semi-online-minne medan hårddiskens omedelbara företrädare faktiskt var, ja just det, primärminne! Nämligen trumminnet som ersatte de ynkliga fördröjningsminnena. Snabbast på scen var williamsminnet, ett elektrostatiskt katodstrålerörminne näst efter flip-flopen förstås (vippan). CRT-minne var dock ynkligt (men hade den trevliga bieffekten av att man kunde se minnet i realtid) så trumminnet var ett välkommet komplement. Ännu hade strukturen med primär- och sekundärminne inte utkristalliserats helt och hållet och det fanns alla möjliga former och kombinationer av primär, sekundär, off-line, on-line, långtids, korttids, snabba, långasamma minnen och knappt något fysikaliskt, optiskt, kemiskt, akustiskt, elektriskt eller mekaniskt fenomen lämnades o-undersökt i jakten på det perfekta minnet. Efterhand lärde man sig då att kompromissa och rent datalogiskt är det mycket vettigt att bygga upp ett skenbart stort och snabbt minne av ett litet snabbt och ett långsamt stort. von Neumann-arkitekturen cementerades och idag har man en sorts hybrid av harvardarkitektur på cachenivå och en uppvisad von Neumann-arkitektur utåt (RAM och utåt). Nya minnen dog ut omedelbart eller etablerade sig. Om minnet var större och långsammare, hamnade det längre ut och antingen petade in eller tog bort befintligt minne, var det snabbare och mindre hände samma sak fast "petade" åt andra hållet. Det man säga är dock att när ett nytt minne har hamnat i precis samma nivå som ett tidigare, brukar det större minnet vinna den nischen och de andra minnet flyttar sig eller försvinner. Man kan naturligtvis lika gärna se det som om själva nischen har ändrats. Hårddisken ersatte inte bara bandminne förrens lång, långt senare. När hårddisken kom ersatte den hålremsa, magnetband, kort, ferritkärneminne o.dyl i lagringsnischen medan många av dessa tekniker levde kvar länge i nya eller modifierade nischer. Jag och andra talar gärna om prestanda som en faktor men i sak är de två, accesstid och genomströmningshastighet. Beroende på minnestyp är olika snabbhetsmått av olika vikt, givetvis. Och så har vi då "tillräcklig-principen" som kan ses som en floor-funktion eller liknande. Bandminnet var aldrig tillräcklig snabbt, utan en pina, lite som disketten, så bandminnet representerar en exklusiv nisch som på många sätt faktiskt inte finns kvar utom i riktiga stordatorsammanhang. Det samma gäller ju disketten som aldrig varit en tillfredsställande lösning på någonting utom att transportera firmware. Med lite våld kan man alltså passa in hårddiskens utkonkurrerande av magnetbandet som ett exempel där snabb gått före stor. Men det beror som sagt på att det var en så ofantlig skillnad mellan snabbheten hos hårddisken jämte magnetbandet. Vi talar accesstider om flera sekunder upp till tiotals minuter eller ännu längre om manuella moment krävs, jämte, till en början, accesstider på några hundra millisekunder. Det är ändå oklart om HDDn hade vunnit om den bara konkurrerat med magnetbandet. Det gjorde den inte, den ersatte/kompletterade främst mindre och snabbare minnen (och mindre och långsammare).