Inlägg

Inlägg som echo har skrivit i forumet
Av echo
Skrivet av S_Z:

Det var många som var kritiskta till ryktena om iPhone 4 högupplösta skärm också till att börja med.

Det är inte någon orimlig gissning att nästa ökning av upplösning för iPad blir 2048x1536. Det går precis i linje med vad Apple gjorde med 3GS -> 4:an, fyrdubbla antal pixlar.

Det är jusst det där resonemanget som är inte fungerar. Att iPhone 4 skulle ha 4 ggr fler pixlar är nog inget jag skulle gissat, men det var inte orimligt - den största frågan i iPhonens fall var att berättiga de kostnader som en sådan skärm skulle innebära, inte att det vore tekniskt självmord. Att iPaden skulle göra samma sak är helt orimligt.

Att folk tror och ens försvarar det är rätt absurt, det är bara siffror för folk. 4 ggr hit eller 4 ggr dit, vad spelar det för roll? Det spelar en enorm roll för alltifrån anslutning till skärmen (LVDS som iPaden använder? Skulle inte tro det va), grafikkrets? Minne?

1080p kräver 3 Gbit/s, 2048x1536 kräver 4.5 Gbit/s, 50% mer. Och för 1080p så har du alltid ordentligt med hårdvarustöd, vad för hårdvara dimensionerat för en sådan liten enhet tror du hanterar sådant?

Bandbreddskraven blir rätt fantastiska, den skärmen och allt runtomkring ska dessutom husera i ett litet chassi och drivas med hjälp utav batterier (som gärna ska räcka i timmar och inte minuter).

Det är inte och har aldrig varit rimligt för 5 öre och det har folk sagt ända sen de återhämtat sig efter att ha läst det där påhittade ryktet. Störtlöjligt.

Av echo
Skrivet av Afrasbaba:

Det är just det är. Annars hade ju inte så många trott på det, eller hur?

Nej, det är inte rimligt. Inte någonstans, helt ofattbart orimligt. Det finns ingen som helst verklighetsanknytning i påståendet att iPad 2 skulle komma med 2048x1536.

Det är lika intelligensbefirat som att påstå att morgondagens 3D-glasögon har stöd för 4 ögon bara för att dagens har 2. Eller att iPad 3 skulle komma med 4 kameror (eller tjae, det är väl inte helt otroligt om apple hakar på 3D-vågen - där har vi något som är lagom osannolikt för att kvalificeras som löst ogrundat rykte).

Skrivet av Afrasbaba:

Problemet är att ryktet inte var påhittat. Ingen tror på rykten som bara grundar sig på en experts uttalande, det krävs konkreta exempel för att folk ska haka på "ryktestrenden". iBooks, iPhone 4 och tron om att Apple valt att fortsätta på samma koncept fick många att tro att iPad 2 verkligen skulle släppas med en Retina-skärm.

Det bevisar ju bara på att folk inte har någon som helst koll. Du skulle kunna lura i folk att iPhone kommer med en terahertz-processor (jag skojjar inte).

Skrivet av Afrasbaba:

Såklart behovet finns. Datoranvändare har ALLTID velat ha högre och högre upplösning.

Du tror alltså att 1920x1080 kommer att vara den vanligaste upplösningen som används om 5 år? Den kommer givetvis att vara högre än så.

Jaha, så det är därför som 1920x1200 håller på att konkurreras ut av 1920x1080?

Och nej, datoranvändare har inte alltid velat ha högre upplösning. Det bevisades med introduceringen av LCDn där ingen konsument-LCD var särskilt högupplöst (och det finns knappt några idag heller för den delen). En användare som är ute efter en hög upplösning har istället fått försöka kompensera detta genom att köpa en stor skärm - jusst därför att det inte finns någon riktig marknad för högupplösta skärmar. Och det i sig beror ju dels på att dagens mjukvara inte kan hantera högupplösta skärmar vettigt men framför allt att folk är för snåla.

Och tro inte för en sekund att iPhone 4 hade haft den upplösning den har idag om det inte vore för tidigare iPhones. Det är bl.a. därför som det inte ens är särskilt önskvärt för andra mobiltillverkare att haka på iPhonen i detta avséende, men nu har ju apple lyckats hypa upp skiten något så fruktansvärt att det säkert lönar sig ändå

Skrivet av Afrasbaba:

Ja, den är intressant för alla som är intresserad av att köpa sig en surfplatta, vare sig man gillar eller ogillar Apple.

Ja, precis. Alltså helt ointressant

Av echo
Skrivet av Afrasbaba:

Här handlar det om vad som är RIMLIGT. iPhone 4 släpptes med Retina, många trodde att iPad 2 skulle följa i samma fotspår. På samma sätt som vi (troligtvis) kommer att se framtida iMac och Mac Pro släppas med Thunderbolt och därmed följa i MBP's fotspår. Därför är det inte så konstigt att många trodde att bakgrundsbilden i iBooks 1.1 bekräftade ryktet.

Ja, precis! Det handlar om vad som är rimligt. Och 2048x1536 är INTE rimligt för fem öre och det bevisar bara att de som hittade på ryktet inte har en blekaste susning om ... något?

Man kan även fråga sig varför iPhone 4 släpptes med sin höga upplösning och har man någon som helst aning om det så inser man snabbt att det inte finns något behov av att släppa en iPad med fyra gånger fler pixlar än föregående generation.

Skrivet av Afrasbaba:

Apple är som många andra tillverkare, stenhårda när det kommer till läckandet av specifikationer innan själva lanseringen av produkten. Alltså är det inte speciellt konstigt att det förekommer så många spekulationer och rykten om Apples produkter, eftersom ingen vet hur slutprodukten kommer att se ut eller när den överhuvudtaget kommer att släppas.
Detta förklarar varför "ryktet rapporterades vidare", eftersom det är just det, ett RYKTE som handlar om en väldigt intressant produkt.

Givetvis är det naturligt med ryktesspridning, men att påstå saker i stil med att nästa iPad kommer ha en i7 på 5 GHz är varken intressant, trovärdigt eller värdigt att rapporteras vidare. Sen att produkten skulle vara intressant ställer jag mig rätt frågande till men visst, hypad produkt - det kan jag hålla med om.

Av echo
Skrivet av Afrasbaba:

Anledningen till att många trodde att iPad 2 skulle få Retina-skärm var för att MacRumours
gjorde en upptäckt i samband med lanseringen av iBooks 1.1. De hittade en bakgrundsbild vid namn "ipadx2" och därför trodde många att den gamla upplösningen skulle bli dubbelt så stor.

Så det där med att det inte finns någon "som helst verklighetsanknytning i det ryktet" stämmer verkligen inte. Detta då det fanns ett konkret exempel som stödde ryktet.

Så om en bakgrundsbild som har namnet ipadx1000000 hittas så tror man alltså att nästa ipad skulle få 3 145 728 megapixlar?

Nej, det fanns ingen verklighetsanknytning till det ryktet ö.h.t. och det faktum att det ens rapporterades vidare är rätt sorgligt och säger en hel del om hur nyheter propagerar på nätet. Någon idiot postar något och vipps så har detta kopierats till tusentals stora sidor.

Av echo
Skrivet av zzcool:

har ipad 2 redan släppts det gick fort eller så kanske jag inte gick med nyheterna om den det sista jag såg av den var att den skulle ha över 2000 i upplösning var det sant?

Det fanns ingen som helst verklighetsanknytning i det ryktet, bara bevis på att de som skapar ryktena inte har en aning om vad de hittar på.

iPad 2 kör på samma upplösning som den gamla iPaden, dvs. 1024x768.

Av echo
Skrivet av krutovs:

Jag trodde att när dessa kom ut/kommer ut i butik i sverige, att dom äldre versionerna SSD skulle sänkas i pris, någon som vet nåt om detta?

Tveksamt, hände inget speciellt med G1 när G2 kom (G1 var länge mycket dyrare än G2). Har man tur kanske någon butik säljer ut sina diskar billigt men det är inget man kan räkna med.

Skrivet av MrStalker:

SATA 3.0 Gbit/s? Inte SATA 6 Gbit/s?

SATA 3 Gb/s stämmer.

Av echo
Skrivet av x1zt:

En nätverksport känns nästan som ett krav om man ska göra något vettigt med den. Visst USB nätverkskort finns men känns inte så smidigt.

Precis, från högintressant till totalt värdelös när den inte hade trådat ethernet - i mina ögon i alla fall.

Av echo

Fasst varför vill man ha hög sekventiell överföringhastighet när det knappt betyder något i praktiken?

Det är jusst av prisskäl som man dumpar SATA 6 Gb/s men man ska inte tro på fantasisiffror för det. Det är däremot positivt för oss som insett att sekventiella överföringar inte är intressanta och därför inte har lust att betala för SATA 6 Gb/s när det inte ger något.

Av echo

G3 kör ju SATA 3 Gb/s och 510 kör SATA 6 Gb/s.

Så även om G3an är mycket bättre än 510 så kommer den få storstryk i sekventiella överföringar. Möjligt att det räcker för att lura den stora massan att det är high-end disk.

Av echo

Jag har ingen vidare koll på hurvida det går att boota från en 3TB-disk i din situation, men det ser kanske lite mörkt ut.

Ofta brukar man väl dock vilja ha en SSD eller någon annan disk som har lite kortare accesstid som systemdisk (de flesta 3-TB diskar är ~5400 rpm).

Skrivet av ElectroGeeza:

En annan sak är att UEFI inte har öppen källkod. Det har inte BIOS heller, men när man ändå skapar ett nytt och mer flexibelt system, är det då inte bättre att använda öppen källkod? Det finns ju alternativ som Coreboot, OpenBIOS och Open Firmware. Varför är dessa sämre? Det är väl mest för att de inte backas upp av ett multi-miljard bolag.

Öppen källkod vore trevligt men det hänger nog jusst på det att de inte backas upp av något stort företag. De stora företagen vill gärna hålla sina lösningar för sig själva, kan tyckas lite fånigt i många fall - det känns ibland lite som en reflexartad grej som dom kör med bara för att de inte vågar. Oavsett anledning är det ju dock de som bestämmer så att det inte är open-source är jag inte särskilt förvånad över, men det hade varit trevligt.

Skrivet av ElectroGeeza:

Men det är många som är skeptiska till UEFI. Till exempel så programmeras UEFI i C++. Är det inte bättre med assembler som i BIOS?

Det är bara några tankar som jag har haft. Jag är rädd att UEFI kommer att öppna upp dörrarna för script kiddies att ännu enklare sabotera datorer. I och med att man skapar ett mer generellt system och som dessutom använder högnivåspråket C++. Jag misstänker att man kommer närmare hårdvaran än vad tidigare var möjligt.

Tanken är ju att skapa ett till lager för att distansera hårdvara och operativsystem, men det skulle kunna få motsatt effekt i och med generaliseringen och C++. Man ska inte behöva programmera längre på låg nivå i och med C++ och i och med generaliseringen så kommer i stort sett alla datorer ha liknande struktur på UEFI. Skadlig kod skulle alltså kunna spridas på alla datorer som använder UEFI, oberoende av plattformen i övrigt.

Ang. C++ vs. assembler så är så handlar det främst om programmerarens synvinkel än den tekniska. När C++ kompileras så översätts det först till assembler, all kod som kan skrivas i C++ kan alltså även skrivas i assembler. Och det är jusst i assembler som man kommer närmast hårdvaran (däremot kan man skriva saker i assembler i ett C++ program jusst för att utföra sådant som man normalt måste lösa med assembler).

Skillnaden är väl mer att det är betydligt mer tidskrävande att skriva assemblerkod, i assembler jobbar man direkt med de funktioner som finns tillgängliga i hårdvaran medans du i C++ har väldigt mycket gratis som du kan utnyttja bara genom att skriva någon rad.

Jag är inte insatt i exakt vad UEFI innebär, för som sagt så översätts C++ till assembler och därmed finns det inget som hindrar att man skriver ett BIOS i C++ heller, men det känns som andra begränsningar har styrt det där till stor del (t.ex. att man är låst till 16 bitar och 1 MB minne) - kod som skrivs i assembler tenderar att bli effektivare och mindre än kod som ursprungligen är skriven i ett högnivåspråk.

Visst finns det risker med UEFI och jag har väl inte varit särskilt överentusiastisk vad gäller UEFI, men förhoppningsvis öppnar det även upp nya dörrar. TianoCore kanske är något:
http://www.tianocore.org/

Av echo

Mjo det där stör mig.

510an verkar ingen hit och bortsett från sekventiella överföringar så hänger G2an med bra i jämförelse (och den är ju snart två år gammal).

Känns ju inte som om 510an kommer ha något att säga till om alls mot 320 bortsett från sekventiella överföringar, och det är inte särskilt intressant hursom. Så jag har väldigt svårt att förstå poängen med 510 mer än att kunna hypa SATA 6Gb/s och kanske sälja gamla minnen man har kvar.

Som sagt:

Skrivet av Alexei:

50k iops 4k random reads och 40k writes, mot G2 som har 35k och 8.6k

Om det där stämmer så är fortfarande G3an högintressant och med något bättre sekventiella överföringar (som i jämförelse kanske är lite väl låga för G2an) så vågar jag fortfarande hoppas på en ruskigt prisvärd disk med grym (om än kanske inte marknadsledande) prestanda.

Men ja, man har ju väntat sen augusti förra året så visst har man tröttnat lite

Av echo
Skrivet av ElectroGeeza:

Interessant...

Är det endast i BIOS som den här begränsningen ligger?

Hur ska man installera då en sån här hårddisk? Vad har man för hjälp av Diskwizard som följer med disken som de skriver?

Skulle du säga att UEFI är ett bättre alternativ till BIOS? Finns det bättre alternativ?

Begränsningen sitter i såväl BIOS som i Windows XP och många kontrollerkort+drivrutiner. Problemet med BIOS är väl främst att man har problem att boota från stora diskar om jag förstått det rätt (jag ser dessa 3TB diskar som lagringsdiskar och inte som systemdiskar så jag har inte kollat närmare på det).

Ska man köpa en 3TB disk så bör man ha koll på att sin hårdvara och mjukvara stödjer >2TB-diskar, och det är lättare sagt än gjort. Därför har western digital valt att skicka med ett kontrollerkort vars hårdvara och drivrutiner klarar av detta, har man då ett operativsystem (t.ex. win 7 och *nix) som klarar av dessa diskar har man alltså inget problem (även om det fortfarande säkert kan vara problematiskt att boota från disken).

UEFI har inte detta problem, största problemet med UEFI är i mitt tycke att tillverkarna kan få för sig att implementera lite skumma saker men UEFI kommer att ersätta BIOS så det är inte värt att försöka streta emot Däremot är UEFI så nytt så det kan ha lite barnsjukdomar, om det är bättre eller ej beror säkert på tillverkarens implementation och vad man tillåter att folk pillar på.

Jag vet inte vad discwizard gör egentligen eller om det är något som fungerar på alla 3TB-diskar, men i praktiken innebär det att du måste ha flera partitioner och att den största partitionen kan som mest vara 2 TB.

Av echo
Skrivet av pecill:

lär ju inte bli nån hit om man ska ansluta det till USB. Jag förutspår kass prestanda

Fasst det riktar sig ju inte mot någon som vill ha prestanda heller...

Rätt schysst ändå till en mini-ITX eller liknande där man vill gömma datorn så bra som möjligt och bara behöver en kabel men ja det är väl rätt nischat. Smidigt och lite grymt när man väl behöver det (vilket väl ändå är rätt så ovanligt?) men känns inte som det kommer slå.

Ang. medelstora företag så presterar väl dessa rätt kasst? Alla enheter delar väl på samma bandbredd så prestandan riskerar att bli väldigt lidande (beroende på situation kan det vara helt obrukbart om det börjar bli ett par enheter). Sen tillkommer ju en del säkerhetsproblem också.

Av echo
Skrivet av heniv181:

Jag förstår inte denna besatthet av G-serien, G2 var en medioker enhet anpassad för den breda marknaden. Medan Sandforce/Marvell etablerat sig bättre i högprestanda segemtet. (källa Anandtech 510 reviewn).

Jösses, när G2 kom sopade den mattan med allt på marknaden till ett överlägset pris. Sen att konkurrenterna är ikapp och förbi är väl inte så konstigt när intel inte lyft ett finger på snart 2 år.

Av echo

... och allt under 1920x1200 bör vara 4:3, imho.

6:9 har i mitt tycke inget existensberättigande ö.h.t. (på en datorskärm).

Har man flera skärmar är 4:3 svårslaget, dessutom fungerar de betydligt bättre i pivot eftersom en widescreen-skärm blir lite väl hög när den är roterad.

Sen fungerar inte sådana här lösningar vettigt med bara widescreen:
http://www.spencerboerup.com/images/desknew.JPG

Men visst, efterfrågan styr. Trisst att 4:3 ska dö ut helt bara (till förmån för värdelösa 16:9 paneler).

Av echo
Citat:

Den väldiga kapaciteten och 4 K-sektorer ställer dock till det för gamla BIOS och Windows XP.

Det är rätt trisst att i princip alla sidor har fått detta om bakfoten, det rörde till det en del för mig när jag i början skulle förstå vart problemet egentligen låg.

Att nyare diskar kör med 4k-sektorer har inte ställt till med några problem ö.h.t. för BIOS eller windows XP - jusst därför att alla diskar på marknaden fortfarande adresseras i 512-byte block, även om de internt kör med 4 kilobyte.

Att moderna 4k diskar däremot exponerar datan i 512-byte block har dock ställt till med en hel del problem. Dels kan prestandan bli väldigt lidande om man inte skapar partitioner på en jämn 4k-multipel (det här är alltså ett problem man skapat när man fick för sig att man ville emulera 512-bytes sektorer och ingenting som egentligen är synonymt med 4k sektorer) och dels är jusst det att man fortfarande adresserar i 512-byte sektorer som skapat problem med BIOS, drivrutiner och annat.

2^32 * 512 byte = 2 TB och det är där problemet ligger. För att hantera diskar över 2 TB med 512 byte sektorer krävs mer än 32 bitar för att adressera allt.

Hade man kört med 4k-sektorer hela vägen hade vi kunnat ha diskar på
2^32 * 4k = 16 TB
utan att ändra på något.

Anledningen till att man valt att lösa det på detta sätt är väl antagligen för att man anser att problemen med att köra med 4k-sektorer i hela kedjan skulle leda till värre problem än att emulera 512-byte sektorer. Vad det skulle vara för problem vet jag inte men det kan tänkas att 512-byte per sektor är relativt hårdkodat i de lägre lagrena då det varit konstant bra länge nu. Stödet i operativsystem har väl varit väldigt dåligt det med, sen om det är orsaken eller resultatet av att det inte finns några 'pure'-4k-diskar vet jag inte.

Rätta mig om nu seagate verkligen exponerar 4k-sektorer utåt men det är isåfall såvitt jag vet den första disken på marknaden som gör det. Denna soppa är anledningen till varför 3TB diskar tagit så lång tid på sig att introduceras och varför t.ex. western digitals disk bara går att köpa bundlat med ett kontrollerkort som fixar adresseringen (om det inte ändrats sen jag kollade).

Av echo
Skrivet av Aje:

Dålig färgrymd

För vadå?

Av echo
Skrivet av voro12:

Är det värt att skaffa en G3 när man bara har SATA II ?

Ja. G3 är SATA II så det finns absolut ingen anledning att ha SATA III för G3, och även om G3 vore SATA III så är det ingen skillnad att tala om.

Av echo

Nej, 510 är inte X25-M G3.

Av echo
Skrivet av Limo:

Så denna t.ex http://www.inet.se/artikel/2203677/hp-tft-zr24w-24-ips-panel är i princip lika bra att spela på som en vanlig lcd-tn skärm?

I mitt tycke är den lika bra att spela på (eller ja, snäppet bättre pga. betraktningsvinklarna). Vissa kommer inte att hålla med men jag tror att det allra mesta handlar om placebo.