Inlägg

Inlägg som echo har skrivit i forumet
Av echo
Skrivet av kol:

Jo, men producenterna ersätter successivt 16:10 skärmar med 16:9 skärmar och det finns väl inget som tyder på att den utvecklingen ska upphöra. 2209WA ser t.e.x. inte ut att ersättas.

2209WA kommer ju inte ersättas jusst därför att det är en 16:10-skärm som främst konkurrerat med sitt pris, det finns inget utrymme för sådana skärmar.

Skrivet av kol:

Orkar inte gå in i en 16:9 / 16:10 diskussion men man kan ju konstatera utan att vara partisk att 16:10 är att föredra vid arbete (CAD, Word, Excel etc) medan 16:9 är att föredra vid användande av media (film, TV, spel etc). Problemet för 16:10 är som sagt priset vilket gör att många väljer 16:9 även för arbete.

Ja precis.
Och rent generellt så är ju tanken att man använder TVn för film, TV och i allt större utsträckning även spel.

Dessutom är skillnaden verkligen marginell när det gäller film, TV och spel. Serier får en liten svart kant och filmer har "en lite större svart kant" och spel har ingen betydelse alls i de flesta fall. Jag lider inte direkt av att jag inte har någon 16:9-skärm hemma.

Det enda som 16:9 egentligen har att tala för sig är priset och som jag skrev ovan så är det främst pga. att det rör sig om budgetskärmar. Så visst, vill man ha en billig skärm så är 16:9 kanon, vill man ha en skärm som säljer på annat än priset så...

Av echo
Skrivet av kol:

Det jag menar är att 24 tum 1920x1200 indirekt ersätts med 27 tum 2560x1440. 1920x1200 var en tidigare high end upplösning men när nu 1920x1080 är standard och högre upplösningar tillkommit på marknaden anser de att 1920x1200 inte behövs längre. Den grupp som Dell riktade sig till med sin U2410 vill de antagligen framöver främst nå med 2560x1440 U2711 istället.

Fasst den kommer ju inte ersätta något, de kommer leva sida vid sida länge.

Jag tror mer på att Dell kommer att komma med en ersättare till U2410 (och den enda anledningen till att inte göra det vore isåfall för LGs brister), bara för att det finns större skärmar så betyder det inte att det inte finns något behov för mindre. 20"-22" är fortfarande populärt och 27"aren är lite speciell med sin höga DPI vilket många har problem med.

Skrivet av kol:

Det är ju en fråga om tycke och smak och det går varken att säga att det ena eller andra är bättre. Däremot är det ju svårt att komma ifrån att 16:9 skärmarna är billigare (även om man jämför skärmar med liknande bildarea) än 16:10. Detta eftersom de kan sänka produktionskostnaderna vid produktion av 16:9 monitorer iom att 16:9 även är bildformat för TV-apparater, som du tidigare var inne på.

16:10 har klara fördelar, objektivt, i många fall (det finns en anledning till varför man hittade på 16:10 från första början, det var inte resultatet av att någon på produktionskedjan skrev av bildförhållandet fel). Det behöver inte vara rätt för alla men jag hävdar nog att det främst handlar om okunskap och snålhet i de flesta fallen (men som sagt, inte alla, och givetvis finns det folk som föredrar 16:9).

Jag vet inte riktigt om jag köper att 16:9-skärmarna är särskilt mycket billigare. Det handlar inte bara om yta, det handlar om kvalité. Det görs inte några budgetskärmar för 16:10 och det görs knappt några kvalitetsskärmar för 16:9. Gör du en 16:10-skärm kan du inte konkurrera med priset (främst pga. att konsumenterna inte förstår att skärmytan påverkas av bildförhållandet) och måste konkurrera med annat. Därför har vi en betydligt större prispress på 16:9-skärmar och dessutom lägre kvalitet, klart det kostar mindre och jag tvivlar att skillnaderna i produktionskostnader är något annat än försumbar i sammanhanget (rätta mig gärna).

Kolla på den här nyheten t.ex. e-IPS, hur många 16:10-skärmar med e-IPS har vi och hur många 16:9? (spontant vet jag bara om panelen i 2209WA som är e-IPS och 16:10, och det var också den första e-IPS-panelen som kom och det innan 16:9 blev populärt (men jag har kanske missat något, jag letar inte specifikt efter e-IPS-paneler))
Hur många 16:10 IPS-skärmar med 6-bitars-paneler finns det? (jag vet inte om någon)
Hur många 16:9 IPS-skärmar med 10-bitars-paneler finns det? (bortsett från U2711 så vet jag inte om någon)

Det är två helt olika målgrupper.

Av echo
Skrivet av kol:

Vad menar du?

Det var inte så att 24"arna körde 1024x640 och med tiden fick 1920x1200. 24"arna har alltid haft 1920x1200 och kommer antagligen att fortsätta med det (och 1920x1080 förstås) och inte ersättas med 2560x1440.

Köpte du en 15"are (LCD) 1999 så körde den 1024x768. Köper du en 15"are idag så har den också 1024x768.

Skrivet av kol:

Det skulle bara resultera i onödigt dyra bildskärmar och därför kommer det inte heller att ske, om nu inte 21:9 blir TV standard.

Inte mer onödigt dyra än vad 16:9-skärmarna är onödigt dåliga...

För du får ju mer av en 16:10 skärm vid samma diagonala storlek och de lämpar sig mycket bättre för allt förutom film, och där är skillnaden marginell.

Av echo
Skrivet av kol:

1920x1200 kommer att försvinna till förmån för 2560x1440 och senare 3840x2160.

Det är ytterst sällsynt i LCDns historia att en upplösning ersätter en annan. 27"aren är väl i princip det enda exemplet och de 27"are med 1920x1200/1080 var väl knappast särskilt seriösa alternativ ändå.

Sen kan man ju inte annat än hoppas att 16:9 försvinner. Med lite tur går vi mot 21:9 eller liknande för TVs och då kommer väl t.o.m. folket inse hur efterblivet det vore att försöka anpassa datorskärmen efter vardagsrumet.

Av echo
Skrivet av Lillem4n:

Okej men varför använder man då NTSC som måttstock?

Tanken med NTSC var väl (om jag förstått det rätt) att det skulle representera det absoluta maximala som ögat kan registrera. Men hursom, för att göra en vettig bedömning behöver du mycket mer information än bara "xx % av NTSC" för även om en skärm har mer än 100% NTSC så betyder det bara att färgrymden är större, inte att den täcker samma område som NTSC.

Av echo
Skrivet av Lillem4n:

Jag hänger inte med, hur kan 80% av NTSC vara bättre än 102% NTSC.

Som jag ser det är det 20% offset vs 2% offset.

Eller?

Folk använder inte 100% NTSC utan folk använder sRGB, dvs. 72% av NTSC.
Det är alltså 8% offset vs. 30% offset...

Av echo
Skrivet av Zotamedu:

Du som har lite koll, hur går det med OLED? Har för mig att jag läste att de skulle ha bra färger och skulle väl bli någorlunda billiga när de väl får lite volymer på produktionen.

OLED har legat runt hörnet ett bra tag, jag vågar inte sia om framtiden där. Det känns lite som LED-belysningen som hypades upp ordentligt 2005 som skulle ge både billigare och bättre skärmar - vilket kanske stämmer i teorin men i praktiken så börjar volymen ta till sig först nu, 6 år senare (och då är kvalitén kanske inte så bra som man från början tänkt sig (särskilt inte när man kör med edge-lit LED, vilket snarare är ett tecken på att skärmar blir sämre och inte prisvärdare)).

OLED har potential och jag har svårt att säga något annat än att OLED är helt revolutionerande och helt överlägset vad LCDn någonsin kan hoppas åstadkomma (främst pga. den perfekta svärtan). Men dessvärre så har man problem med livslängden och eftersom pixlarna slits efter användning så kommer vi att få inbränningsproblem. Så dessa problem måste man jobba en hel del på (något som man knappt behöver tänka på när man gör (eller köper) en LCD).

Skrivet av Jexmark:

Nu har jag aldrig ägt en U2410 men U2711 blir _förbaskat_ trevlig efter en kalibrering:

http://www.flatpanelshd.com/pictures/dellu2711-efter-1l.jpg

Problemen som jag visade med U2410 har dock inget med dE-värden att göra. Kalibrering påverkar inte färgrymden, dvs. du kan inte kalibrera en wide-gamut skärm till sRGB.

Digitalversus dE på U2410 ser som väntat inte dåliga ut heller:

http://img1.digitalversus.com/produits/88/6194/88_559_106.jpg

Och jag vet inte riktigt hur mycket vikt jag skulle lägga på dE-värden, känns som alla vettiga skärmar presterar "bra nog" på den fronten, och så gör även gamla TN-skärmar. Det är större problem med färgskiftningar, variationer i både panel och bakgrundsbelysning samt backlight bleed osv. (och sen i fallet med en TN-panel så har vi ju betraktningsvinklar osv. som tar överhanden framför låga dE-värden).

Här jämför digitalversus Dell U2711 med en TN-panel, efter kalibrering:
http://www.digitalversus.com/duels.php?ty=6&ma1=88&ma2=150&mo...

Inte för att jag tycker att U2711, eller Dells skärmar i övrigt, är dåliga (särskilt med tanke på att min skärmsetup består av tre dellskärmar) men det finns mervärde i EIZOs och NECs alternativ. Dells ultrasharpserie är dock generellt väldigt prisvärd och en väldigt bra kompromiss (tycker jag i alla fall). Som vanlig dödlig så finns det sällan någon anledning att köpa en proffsskärm och oavsett om man köper en budget eller highendskärm så kommer det att finnas brister.

Med det sagt så finns det givetvis andra alternativ också.
HP ZR24W är en 24", 16:10, IPS och sRGB-skärm. Ruskigt sällsynt kombination som jag skulle vilja påstå är den kombination som de allra flesta konsumenter helst skulle vilja ha, egentligen.

Av echo
Skrivet av Zotamedu:

Väntar för övrigt fortfarande på en vettig 30" för under 10k.

Att önska ännu mer prispress är bara att önska för ännu sämre kvalitetskontroll, det är fan illa nog som det är nu. I väldigt många aspekter så är det inte skärmarna som blir billigare, de blir sämre...
(och ha då i åtanke att man för några år sen inte kunde få en 24" för under 10 kkr)

Dells U3011 för 12 kkr kan knappast anses vara dyr. Särskilt inte med tanke på att det är den största skärmen och den med flest pixlar du som konsument kan köpa. Sen om den är vettig eller inte är subjektivt, men är det priset som avskräcker så lär du knappast hitta något vettigare inom den närmsta framtiden.

Av echo

EIZO och NEC har såå mycket mer att erbjuda än Dells skärmar. Riktiga färgrymdsöversättningar och där väldigt mycket energi läggs på att kompensera för panelers och belysningens imperfektioner. För det är det som skiljer en bra skärm mot en dålig i tider då en konsumentskärm och en highend-skärm för 30 kkr har samma panel i sig. Och ja, det är stor kvalitetsskillnad (särskilt eftersom panelerna och bakgrundsbelysningarna har så låg kvalitet).

Sen om det är prisvärt är upp till var och en men som vanlig dödlig är det väl kanske tveksamt. NEC verkar dock i mina ögon vara betydligt mer prisvärt (rent generellt) än EIZO.

EIZO har haft en period fram tills precis nyligen där de i princip bara kört med samsungs paneler (dvs. *VA), i deras highend segment förstås, annars så kör de ju en hel del med TN (och de är rätt dyra de med, men då har man satsat på andra saker som läsbarhet osv. (bara en sån sak som att man kan stänga av lysdioden är en fin touch). Prisvärt? Knappast ur en swecares perspektiv).

Det är bara LG som gör IPS-paneler för datorskärmar och det är alltså samma panel i Dells U2410 som i NECs och EIZOs dyra proffsskärmar. Men inte är de likvärdiga för det.

Skrivet av guermantes:

Kan du förklara vad du menar när du säger så?

Alla skärmar adresseras idag med 8 bitar per färg (nåja, det börjar bli lite poppis med 10-bitarspaneler, men då är det egentligen en 8-bitarspanel med dithering, och mjukvarustödet är väl som jag förstått det riktigt kasst - hursom så spelar det egentligen ingen roll för resonemanget (det blir bara lite andra siffror)). Det betyder att du har 255 nyanser av rött, 255 nyanser av blått och 255 nyanser av grönt som kan blandas fritt.
(detta blir totalt 3*8 = 24 bitar => 2^24 =16 777 216 färrger)

TN paneler och nu på sistone även många e-IPS paneler (och skulle jag få gissa så kan jag tänka mig även produkterna i nyheten) är dock bara 6 bitar per färg men där man växlar mellan närliggande nyanser (dithering) för att "emulera" fler färger. Men det är bara en parantes och har inget med övriga resonemanget att göra.

Om vi utgår från den röda färgen där 255 är den rödaste röda färgern du kan återge. Vad är egentligen det för färg? Hur rött ska 255 vara?
"Standarden", dvs. alla skärmar fram tills nyligen, alla TV-apparater tills nyligen och alla som skapar material för TVn och dator har använt sig utav sRGB (inte alltid exakt men däromkring).

Nu på sistone har man utökat färgrymden på konsumentskärmar så att man får ännu rödare färger, dvs. 255 är inte längre den färgen som man i alla tider förutsatt att den ska vara - nu är helt plötsligt 255 mycket rödare och den allra rödaste färgen inom sRGB motsvarar kanske 233 istället (bara för att hitta på en siffra).

Precis som de gröna färgena och de blåa. Men eftersom det verkar vara lättare att göra en stark röd och/eller grön färg så är det vanligt att man har en extra stor färgrymd jusst för rött och/eller grönt. Alltså får hela skärmen en röd/grön ton. Dessutom får alla hemsidor, alla spel, alla filmer och serier felaktiga färger på en sådan skärm om detta inte hanteras rätt (alla färger måste översättas till den färgrymd som de skapades för (dvs. sRGB)).
När du gör det förlorar du precision (dina 255 bitar blir helt plötsligt istället 233 bitar i exemplet ovan (och de mappas heller inte rätt (som att köra en non-native upplösning på en LCD) - och vipps så är banding ett större problem) men det är egentligen inte det stora problemet. Det stora problemet är att det är få program som kan hantera detta.

Precisionsproblemet är något som EIZOs och NECs skärmar kan hantera mycket bättre, genom att göra transformationerna i skärmen kan man fortfarande utnyttja hela adressrymden och därmed bibehålla precisionen - men detta är givetvis inget du kan göra per applikationsnivå utan du får ju antingen välja om du vill slå på översättningen på skärmen eller inte.

På dells senare skärmar har jag för mig att man inte ens kan ändra färger osv. i sRGB-läget vilket gör dom rätt kassa att kalibrera för sRGB (men det varierar nog mellan deras skärmar). Men Dell har nog ingen skärm med ett särskilt bra sRGB-läge heller så vet inte om det är så aktuellt ändå.

Resultatet?
Här har vi en bild på jusst Dell U2410:

http://i577.photobucket.com/albums/ss211/DellU2410InputLag/Win7W...

Från:
http://hardforum.com/showpost.php?p=1034712195&postcount=803

Där jämförs samma bild när den är som bakgrundsbild och när den är inladdad i photoshop (som klarar av att översätta färgerna till sin korrekta färgrymd). Lite röd nyans kanske...
I posten ovan jämförs även sRGB läget som dessvärre kommer med en hög andra problem. Nej det finns mig veterligen ingen konsumentskärm med vettigt sRGB-läge (vilket i mitt tycke implicerar att det inte finns något existensberättigande för en konsumentskärm med stor färgrymd).

En annan bild för att illustrera problemet med en stor färgrymd utan översättning:
http://imageshack.us/photo/my-images/14/230lwx.jpg/

Ett exempel på en wide-gamut skärm jämfört med sRGB. Här har man alltså fläskat på med en stor grön färgrymd, värt...

http://img100.imageshack.us/img100/5145/distortionlq2.jpg

Och detta med stor färgrymd är alltså något som folk tror är bra...

Och givetvis är det bra i rätt händer, men det är ytterst få som har användning för det och fokuset har inte legat på tillämpningar utan fokuset har helt legat i att lura konsumenterna.

Kan ju tänkas att det är billigare att tillverka belysningar med stor färgrymd där man inte alls behöver ha samma krav på precision utan där det plötsligt är bra om man får för mycket av något. Dessutom blir det enklare att att visa på hög precision då det är större skillnad mellan varje nyans. Oavsett anledningen så är det bara tragiskt.

Av echo
Skrivet av upl8447:

den gick ner till 80% från 102%

Ja. Alltså kommer 99.99999% av allt material som du tittar på att återges bättre på dessa skärmar.

Av echo
Skrivet av upl8447:

är det bra att skärmarna blir sämre?

Det är bra att skärmarna visar korrekta färger.

Av echo

Tvivlar på att detta är tänkt att ersätta U2410 ?
Detta är ju budgetskärmar och en helt annan målgrupp än U2410.

Skrivet av Lillem4n:

Sen NTSC från 102% till 80%.

Det är dock positivt.

Av echo
Skrivet av grapnel:

Har aldrig tagit en backup, händer det något så visst, vilken osis, men jag överlever. Har en bunt foton som skulle vara tråkigt att mista kanske men jag tittar ju kanske på dom typ en gång om året på sin höjd och används det inte oftare än så så kan man ju klara sig utan dom.

Fasst värdet på gamla bilder kan plötsligt ändras och när bilderna börjar bli gamla så får de nytt liv.

Själv håller jag för närvarande på att föra över farfars VHS-arkiv till datorn och det är rätt kul att se ~25-år gamla klipp från ens barndom. Backupfrågan blir lite intressant dock då det åtminstone kommer ta 2 TB när det är klart. Tanken var först att synka arkivet mellan min filserver och den jag har hos föräldrarna men det blir lite för mycket data för att ta det över internet och det behövs nog ett par till diskar både här och där men men, hårddiskar kostar inte mycket.

Föräldrarna har även påbörjat att scanna in gamla negativ och fört in i bildbiblioteket och det är lite häftigt att se dom bilderna också. "Det var bättre förr", hur många har inte högar av gamla fotografier? I dagsläget räcker det med att en hårddisk går sönder och vipps försvinner alla bilder från de senaste 15 åren... Och jag tvivlar ju på att jag hade haft tillgång till dessa filminspelningar idag om de lagrats digitalt (om man nu ignorerar att de aldrig skulle gå att lagra dem digitalt på den tiden), varken optisk media eller hårddiskar står sig särskilt väl med tiden. Som tur är blir hårddiskarna större och billigare hela tiden så underhållet behöver inte vara så jobbigt.

Kul att såpass många tar backup seriöst (av den här tråden att dömma).

Av echo
Skrivet av Frispel:

Nja, om man ska skriva till ett fyllt block där bara delar av datan används (ett delvit tomt men "smutsigt" block) så blir annars proceduren för det blocket:

läs den data som redan finns där -> radera -> skriv den tidigare datan plus den nya.

Då kan man lika gärna slå ihop ett antal halvtomma men "smutsiga" block i ett färre antal fulla och ett antal helt tomma så blir det färre raderingar i framtiden.

Fasst du har ju förlorat möjligheten att skriva in data i de nya blocken som annars hade haft plats över...

Och det blir färre raderingar i framtiden på bekostnad av fler raderingar "nu", dvs. man prioriterar i det fallet prestanda framför nandslitage.

Skrivet av Frispel:

Poängen är återigen att folk inte ska oroa sig för att ssd:n ska dö av utslitna nandceller, den kommer antagligen att dö av liknande saker som andra komponenter dör av. Det är som sagt många som hört att en ssd tål ett begränsat antal skrivningar och då i onödan oroar sig för att deras nya fina ssd ska dö av det. Om siffran inte går att uppnå i verkligheten så beror det nog i så fall huvudsakligen på att ingen/väldigt få skriver så mycket till sin disk

Hör du hur du låter?
"Användarna är oroliga, därför är det berättigat att tillverkarna hittar på siffror för att lura användarna till att tro att det inte är något problem."

Om siffran inte går att uppnå i verkligheten beror det på att siffran var felaktig/missvisande...

Sålänge siffran inte speglar använding i praktiken så är den värdelös. Den duger inte till att lugna oroliga användare och den duger inte för att man ska kunna få ett humm om hur mycket slitage disken tål.

Skrivet av Frispel:

Baserat på det exempel som Anand tar upp så har jag ingen anledning att tro att det är tilltaget i överkant, om något så tror jag att det kan ses som ett minsta värda med god marginal uppåt beroende på hur man använder disken. Men det är antagligen irrelevant då jag har svårt att tro att en ssd skulle leva så pass länge att man slår i taket. Skulle du mot förmodan skriva 20gb/dag vilket är rätt mycket för en normal användare så skulle nandcellerna klara sig i knappt 10 år...

Du antar väldigt mycket...

Av echo
Skrivet av Frispel:

Jag hoppas att du förstått att det är raderingen som sliter på cellen. Ett raderat och tomt eller delvis tomt block kan lägga till data på de delar som ännu är oprogrammerade, det är först när hela blocket fyllts av data som man behöver radera det för att kunna skriva igen och därmed använda en p/e cykel. Varje skrivning innebär således inte automatiskt att ett helt block måste raderas som du verkar tro?

Sant, det har jag missförstått (inte att det är raderingen som sliter utan att man kan appenda). Fasst det innebär ju dessutom att det sliter mer att slå ihop flera dåligt utnyttjade block till ett.

Skrivet av Frispel:

Anledningen till att dom tar med dessa 72TB i marknadsföringen är så klart för att folk ska veta att disken inte kommer att dö i förtid pga utslitna nandceller vilket är en ofta förekommande fråga även här på forumet

Givetvis, och det inger inte mycket förtroende eller försäkran när den siffran dom anger inte går att uppnå i verkligheten - det är ju det jag har klagat på.

Skrivet av Frispel:

... man måste skriva kopiösa mängder data för att en vettig ssd ska dö i förtid pga just den orsaken.

Och det är det som du bara har tillverkarens ord på.

Av echo
Skrivet av Frispel:

Tja, på bilden som jag tog med så skriver Anand att wear leveling på en bra disk hamnar på ca 1.04 mendans den hamnar på ca 5 på en medioker dito. Mata in sifforna i formeln han ger så ser du var man hamnar. Återigen, har du information som påvisar något annat så dela gärna med dig av den. Det jag gick igång på var dina påståenden tidigare:

Ah det missade jag, men varifrån kommer dom siffrorna?

Skrivet av Frispel:

Är det inte tvärtom? Precis som Anand så påpekar dom att disken klarar mer skrivningar än de flesta kommer att göra och att begränsningen i cellernas p/e cykler inte är något en normal användare behöver oroa sig för? Har än så länge inte hört talas om någon som haft en ssd som tagit slut pga att cellerna tar slut och därmed blivit "read only".

Jag har heller inte påstått något annat. Varför lägger du saker i min mun hela tiden?
Att SSD-tillverkarna har gjort detta för att minska fokuset på pålitlighet är rätt uppenbart men hurvida pålitlighetsdebatten är befogad eller ej har jag inte sagt något om. Att jag kritiserar ett mått på pålitlighet är inte ekvivalent med att jag påstår att SSDs är opålitliga.

Skrivet av Frispel:

Wear leveling behöver inte vara perfekt för att hamna på dessa siffror som jag har skrivt tidigare. Blockstorleken är inte heller speciellt intressant om man har en intelligent kontroller som tex kan samla ihop halvtomma block i ett fåtal fulla och resten tomma.

Blockstorleken är intressant i många aspekter men bara för att nämna en sak så kan vi ta ditt exempel. Utgå från två block som är fulla till en tredjedel och så ska du skriva låt säga en fjärdedel till. Den smarta kontrollern läser in dessa två block, kombinerar det med den nya datan som ska skrivas och skriver allt i ett nytt block.

Vi har nu ett närapå fullt block med data och de två tidigare blocken kan TRIMmas bort när kontrollern känner för det. Vad vi har tjänat på detta är att vi frigjort två block samtidigt som vi skrev vår nya data, detta har vi dock ingen glädje utav ur slitagesynpunkt (vi har fortfarande skrivit ett block trotts att vi bara behövde skriva en fjärdedel av det)...

Bara för att vi har två tomma block betyder inte på något magiskt vis att slitaget minskar, dessa block måste raderas innan de kan användas till något vettigt.

Skrivet av Frispel:

Om inte annat så skulle det märkas på skrivprestandan so skulle sjunka drastiskt när alla cellerna väl skrivits till en gång. Ungefär som på ett par usb-minnen jag har som skriver små filer hysteriskt långsamt nu när alla celler väl skrivts till en gång. Det var bla det som gjorde att tidiga ssd:er fick problem med små skrivningar så att systemet läste sig i någon sekund då och då när disken var tvungen att göra hela den processen du beskriver. Det är som du kanske märkt(?) inte längre ett problem med moderna diskar.

Men va? Relevans?
Tänk igenom scenariot.
Jag skriver 4 kB data till en SSD. Detta måste givetvis lagras någonstans, på något utav diskens block. Eftersom en SSD inte kan ändra data i ett block utan att skriva om hela blocket så spelar det ingen roll om alla celler används eller om 99% av disken är tom. För att lagra mina 4 kB så kommer SSDn vara tvungen att skriva till minst ett block, det går inte att komma ifrån. För att detta block ska kunna användas till något annat igen så måste hela blocket raderas, alltså motsvarar slitaget på disken storleken på ett block. Det spelar ingen roll om disken passar på att flytta runt data eller omorganiserar data i samma svep, det är ofrånkomligt att det skrivs i ett block. Det spelar heller ingen roll om disken har TRIMmat bort en massa ledigt utrymme och därmed redan har färdiga block att skriva i.

Men sen kan SSDn givetvis kombinera min skrivning med en annan som råkade ske ungefär samtidigt men du kan aldrig komma ifrån att varje skrivning som görs förbrukar åtminstone ett block.

Alltså, jag skriver x kB data och SSDn skriver detta i y block.
Jag hoppas du är med på det?

Då är bara frågan varifrån detta block kommer. Nej det är inte säkert att man måste radera ett block jusst precis innan man skriver till ett (här har vi poängen med TRIM) men för att ett block ska kunna användas måste det tidigare ha raderats (ignorerar nu när disken är ny och alla block redan är nollade). Alla skrivningar har förekommit av att blocket raderas. Det spelar ingen roll (för slitagets skull) om blocket måste raderas precis innan skrivningen eller om blocket raderades förra veckan tack vare TRIM. Slitaget är fortfarande konstant.

Den processen jag beskriver är alltså det som händer vid varje skrivning på varje SSD (förutom i början när disken redan är blank), det är lite lustigt att du gång på gång anklagar mig för att inte ha koll när du själv verkar duktigt förvirrad och har svårt för att skriva något av relevans.

Skrivet av Frispel:

Det du har skrivt tidigare tyder på att du tycker att det verkar otroligt pga att du faktiskt inte vet hur det fungerar? Är det inte bra att ha lite faktisk grund bakom så kategoriska påståenden som du slängt ur dig i denna tråden? Jag ber dig återigen dela med dig av vad du faktiskt vet(?) om detta snarare än vad du tror eller tycker...

Det räcker med sunt förnuft.
diskens pålitlighet = (minnets pålitlighet) / x , där x > 1 och anses vara en företagshemlighet

Tillverkarna stoltserar med minnets pålitlighet men konsumenterna är givetvis intresserade av diskens pålitlighet (med pålitlighet menar jag bara diskens sårbarhet för slitage (eftersom det är det som jag kommenterat)).

Vill du köpa ett USB-minne av mig?
Det rymmer (1000 TB / x) där x är en positiv hemlig konstant, det kostar 100 kr, låter det som en bra deal?

Av echo
Skrivet av Frispel:

Mitt tidigare inlägg var en respons på ditt inlägg

Ja och det skrev jag ju bara för att du tog upp TRIM till att början med (som svar till mig?)...

Skrivet av Frispel:

Angående wear leveling så tar bilden längst upp på anandtechs artikel upp wear leveling: http://images.anandtech.com/reviews/storage/Intel/SSDlaunch/c...

och även jag kommenterade det ett antal ggr i tidigare inlägg, bara att läsa citatet nedan

En modern disk klarar också av att flytta runt data så att en disk som är nästan full med statisk data har möjlighet att vid behov cirkulera informationen så att det inte bara är de oanvända cellerna som slits.

Varken du eller anandtech har ens berört effektiviteten på wear-level-algoritmerna (dvs. det som är intressant). Har du någon källa på att din wear-level-algoritm i ditt exempel skulle vara dålig?

Skrivet av Frispel:

Som sagt tidigare, har du information som motsäger anandtechs påståenden så dela gärna med dig av den, annars så är det fortfarande dina personliga åsikter du delar med dig av och än så länge så är det en påtaglig brist på information om vad grunden är till dessa åsikter är. Vad baserar du egentligen din uppfattning på?

Jag säger inte emot anandtechs påståenden ö.h.t.. Anandtech förutsätter i alla sina exempler och i alla artiklar jag läst (även det du länkar) att wear-level-algoritmen är perfekt vilket gör i princip alla deras resonemang om slitage rätt värdelösa. Jag grundar mina påståenden på avsaknaden av information, hur wear-level-algoritmerna fungerar och presterar är företagshemlighteter.

Vi har alltså två faktorer som vi inte får veta någonting om och som anses fungera perfekt (helt orimligt).

Om vi förenklar bilden lite och utgår från nyheten där det står att deras 512 GB disk klarar av att skriva 72TB.
72 TB / 512 GB = 144, dom räknar alltså med att man bara kan skriva över disken 144 gånger. Sätter man in dessa siffror i formeln som du länkar så får du (x = write amplification factor, y = wear leveling inefficiency):

(512 GB * 144) / (x * y) (vilket är < 72 TB i alla fall)

Kan du svara mig vad svaret blir? Nog för att matte inte är mitt favoritämne men jag tror nog de flesta har svårt att få ut något ur det där när två av faktorerna är okända...

Detta varierar givetvis kraftigt mellan diskar (men specifikationen är densamma oavsett hur bra eller dålig disken är).

Av echo
Skrivet av Frispel:

Trim utförs inte nödvändigtvis direkt, vettiga diskar sparar informationen med väntar ett tag med själva rensningen för att kunna minimera antalet p/e cykler. Om disken sköter det bra så slipper man många onödiga p/e cykler då halvtomma block samlas ihop till ett mindre antal fulla och de som då blir helt tomma raderas. Du har då ett antal block som inte behövs raderas innan man kan skriva till dom och du har då minskat write amplifikation drastiskt. Som sagt så rekommenderar jag dig att titta på sidan jag länkade till, Anand får anses vara en av de mer trovärdiga källorna när det gäller detta så jag har ingen anledning att misstro den information han lämnar om sin egen 120gb vertex 2 som hade en vrite amplification på 0.6. Självklart så tjänar man mycket på komprimeringen, men jag har svårt att tro att man klarar av att komprimera genomsnittlig data mer än ca 2:1 och då har man en write amplification på ca 1.2 vilket även det är mycket lågt.

Det finns alltså i nuläget ingen anledning att tro att de 72tb som anges i artikeln är en fantasisiffra, om du har påtaglig information om motsatsen så får du gärna dela med dig av den, än så länge så faller dina påståenden in i kategorin: "Jag tycker att det är så här!" snarare än något som faktiskt verkar vara baserat på reell information.

Varför tjatar du om TRIM hela tiden när jag inte ens anklagat TRIM vad gäller nand-slitaget? Känns som du har missförstått något...

Sen har du gjort det väldigt bekvämt för dig genom att undvika att nämna något om wear-level-algoritmerna.

Av echo
Skrivet av Frispel:

Innan man börjar spy galla över tillverkarnas bedrägliga sätt att skriva diskars uthållighet så kan man ju faktiskt ta reda på lite saker...börja med att läsa denna sida:

http://www.anandtech.com/show/4159/ocz-vertex-3-pro-preview-t...

Har du en smart kontroller som hanterar trim på ett bra sätt så samlar den ihop den data som ligger i block med mycket data som väntar på trimning och skriver den i ett oanvänt block för att sedan tömma de nu använda blocken som då är reda att skrivas till igen. Du kommer inte att automatiskt skriva till ett helt block (128k?) med en 4k fil när alla celler använts en gång.

Bara för att du kan kombinera skrivningen med en TRIMning har du ju inte tjänat något på det resonemanget. TRIMningen är ju återigen inget som räknas med i det teoretiska resonemanget och därmed så har du bara minimerat ytterligare förluster utöver det jag kommenterade...

Av echo
Skrivet av elektrofredrik:

Jag ser dessvärre ingen styrpinne på tangentbordet, det är ju ingen riktig thinkpad utan en sån, imo.

Vad ska du med styrpinne till om du inte har någon muspekare att styra?