Sony säljer OLED-skärmar med skyhöga priser

Permalänk
Medlem

Ang annan teknik, laser tekniken finns ju alltid t.ex: http://en.wikipedia.org/wiki/Laser_video_display

Många urbota korkade kommentarer i den här tråden (enligt mig, uppenbarligen).
Som yrkesarbetande filmarbetare och rätt hyfsat insatt i tv, och framför allt filmindustrin med tillhörande teknisk utveckling som specialintresse så kan jag bara instämma med de som så att säga försvarar Sony och deras val av 16:9 i stället för 16:10.

För det första misstänker jag att Sony har mer koll på vad marknaden efterfrågar än taskigt insatta entusiaster som likt mig bidar sin tid på sweclockers. En kvalificerad gissning.

För det andra så förutsätter jag att dessa displayer kan tänkas användas till lite allt möjligt och då är det givet att de är så standardiserade som möjligt d.v.s. har en upplösning på s.k. full 1080 standard eller 1920x1080 om man så vill. 1920x1200 i alla ära men procentuellt så är det en försvinnande ovanlig standard.

För det tredje. Om ni vore det minsta insatta i ämnet upplösningar och aspect ratios etc i avseendet film, tv och video så skulle ni ge upp den menlösa diskussionen rätt snabbt.
T.ex, ta PAL 4:3 standarden, den har en upplösning som oftast (detta varierar) brukar skrivas ut som 720x576, räkna och se själva, detta är inte ett 4:3 förhållande. Värre blir det när dessa siffror brukar variera lite till och från, mycket tack vare att det bygger på en analog linjebaserad standard.
Ok, men HD då? Många displayer och sökare för kameror och dylikt för film och video har upplösningar som inte återfinns någon annan stans, ett rätt roligt fenomen. Ta t.ex. många displayer som visar en s.k. HD bild på 1080. Dock med upplösningen 1024x1080 (d.v.s. non square pixels).
Till detta hör HD-ready upplösningarna som varierar men oftast landar på 1366x768 eller 1024 x 768 (16:9 ?). Men för att göra detta ändå mer intressant så har TV apparater ofta något som heter overscan som bidrar till att alla displayer som påstår sig ha upplösningen 1920x1080 i själva verket inte har det samt andra vägen om d.v.s. har högre faktisk upplösning. Kolla gärna in fenomenet eller sök på Pixel mapping.
Går att fortsätta den här soppan och blanda inte in komprimering, färgrymd i signaler m.m. för då ja…

För det fjärde.
Varför förutsatt att extra upplösning per automatik måste ske i höjdled, varför inte försöka möta något av filmformatets alla riktigt breda aspect ratios och på då i samma slag ge utrymme för menyer och tjafs i sidled. Eller varför inte helt enkelt höja upplösningen till 2048 x 1152 (som är lite en av många standarder för scanning av film) så kan man ju ha menyer både i höjdled och på sidorna etc etc etc etc.

Misstänker att kommentaren i avseendet ”å nej ännu en sunkig konsumentvariant med 16:9 ställt mott professionell och traditionell 19:10” endast var en produkt av okunskap.

och nej, 10-bit färgrymd avser inte 1024 färger då det de facto är en benämning i avseendet video och där av signaler med 3 färger där 10-bit avser färgen per kanal d.v.s. 30-bit.

A ja tack för ordet, god kväll och ha det fint, mvh /Pontus w

Visa signatur

För länge sedan hade jag tydligen: Mac Book Pro 13" & Athlon 64 X2 4200+, Asus A8N32-SLI Deluxe, Corsair 3GB TwinX DDR 400, 2x Raid 0 Seagate Barracuda 160GB:s SATA, GeCube Radeon x1900xt , Nec ND-3500, Audigy2 Platinum, Cooler Master ATC-201 m.m.

Permalänk
Avstängd
Skrivet av Zarper:

Dog inte SED när Canon drog sig ur eller vad det var?

Ditt argument är ju helt jätte konstigt, att säga att 16:10 skulle vara mer än 16:9 och sen lägga till upplösningar och storlek. En 1:1 skärm med 1920x1920 skulle ge ~3,69MP.

vad dillar du om? Klart 1:1 är större...16:11 är också större än 16:10...känns som att du inte vet att 2 är större än 1...Dina argument är däremot oförståeliga...

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem
Skrivet av Tommy_h:

Vet mycket väl vad jag snackar om och att det anger ration, varför jämföra en 16:10 skärm med upplösningen 1650x1050 mot en 16:9 med 2560x1440?

Om du har en 24" skärm med ration 16:10 så får du större skärmyta än en 24" skärm med ration 16:9.
Och för att bilden ska bli "rätt" på 16:10, i jämförelse med 16:9 i liknande upplösning, blir det 1920x1200 mot 1920x1080. Annars blir bilden utdragen.

Om du ska blanda ihop förhållandet, pixlarna, arean och den diagonala längden kan du ju få det till precis vad du vill. Då skulle ju den ultimata skärmen vara en 1:1, men jag kan ärligt talat säga att jag inte skulle vilja ha en 1:1 skärm i någon större storlek.

Permalänk
Avstängd
Skrivet av Gerthoi:

Ang annan teknik, laser tekniken finns ju alltid t.ex: http://en.wikipedia.org/wiki/Laser_video_display

Många urbota korkade kommentarer i den här tråden (enligt mig, uppenbarligen).
Som yrkesarbetande filmarbetare och rätt hyfsat insatt i tv, och framför allt filmindustrin med tillhörande teknisk utveckling som specialintresse så kan jag bara instämma med de som så att säga försvarar Sony och deras val av 16:9 i stället för 16:10.

För det första misstänker jag att Sony har mer koll på vad marknaden efterfrågar än taskigt insatta entusiaster som likt mig bidar sin tid på sweclockers. En kvalificerad gissning.

För det andra så förutsätter jag att dessa displayer kan tänkas användas till lite allt möjligt och då är det givet att de är så standardiserade som möjligt d.v.s. har en upplösning på s.k. full 1080 standard eller 1920x1080 om man så vill. 1920x1200 i alla ära men procentuellt så är det en försvinnande ovanlig standard.

För det tredje. Om ni vore det minsta insatta i ämnet upplösningar och aspect ratios etc i avseendet film, tv och video så skulle ni ge upp den menlösa diskussionen rätt snabbt.
T.ex, ta PAL 4:3 standarden, den har en upplösning som oftast (detta varierar) brukar skrivas ut som 720x576, räkna och se själva, detta är inte ett 4:3 förhållande. Värre blir det när dessa siffror brukar variera lite till och från, mycket tack vare att det bygger på en analog linjebaserad standard.
Ok, men HD då? Många displayer och sökare för kameror och dylikt för film och video har upplösningar som inte återfinns någon annan stans, ett rätt roligt fenomen. Ta t.ex. många displayer som visar en s.k. HD bild på 1080. Dock med upplösningen 1024x1080 (d.v.s. non square pixels).
Till detta hör HD-ready upplösningarna som varierar men oftast landar på 1366x768 eller 1024 x 768 (16:9 ?). Men för att göra detta ändå mer intressant så har TV apparater ofta något som heter overscan som bidrar till att alla displayer som påstår sig ha upplösningen 1920x1080 i själva verket inte har det samt andra vägen om d.v.s. har högre faktisk upplösning. Kolla gärna in fenomenet eller sök på Pixel mapping.
Går att fortsätta den här soppan och blanda inte in komprimering, färgrymd i signaler m.m. för då ja…

För det fjärde.
Varför förutsatt att extra upplösning per automatik måste ske i höjdled, varför inte försöka möta något av filmformatets alla riktigt breda aspect ratios och på då i samma slag ge utrymme för menyer och tjafs i sidled. Eller varför inte helt enkelt höja upplösningen till 2048 x 1152 (som är lite en av många standarder för scanning av film) så kan man ju ha menyer både i höjdled och på sidorna etc etc etc etc.

Misstänker att kommentaren i avseendet ”å nej ännu en sunkig konsumentvariant med 16:9 ställt mott professionell och traditionell 19:10” endast var en produkt av okunskap.

och nej, 10-bit färgrymd avser inte 1024 färger då det de facto är en benämning i avseendet video och där av signaler med 3 färger där 10-bit avser färgen per kanal d.v.s. 30-bit.

A ja tack för ordet, god kväll och ha det fint, mvh /Pontus w

Fint skrivet Lärde mig massor Sitter själv på en 1680x1050 men tycker att kompisarnas 1920x1080 skärmar är precis lika bra mer rum på sidorna

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem
Skrivet av anon100733:

Nej man vill väl ha lite mer yta på höjden så man får plats med en toolbar också i videoredigeringsprogrammet utöver själva 16:9 renderingen

Ja för seriösa videoredigerare använder verkligen en skärm.

Permalänk
Medlem
Skrivet av Gerthoi:

Ang annan teknik, laser tekniken finns ju alltid t.ex: http://en.wikipedia.org/wiki/Laser_video_display

Oh no u dont! Det är tillräckligt jobbigt att behöva förklara att "LED-TV" är samma gamla LCD paneler som som sålts det senaste årtiondet, försök inte få en gammal DLP-projektor att framstå som en "laser-TV"

Visa signatur

WS: DFI LP UT X38T2R (Gigabyte X38-DQ6 = Trasigt)| Intel C2D E6750 | 4*1 GiB Twinmos PC2-6400 | ATI Radeon HD4870 1GB | WD Caviar XL "AAKS" SATA 500GB | Antec Neopower 480W | Antec SLK3700-BQE
Server: DFI LP NF4 Ultra | AMD 3000+ "winchester" | 2*512MiB PC3200 | ATI Radeon HD2400pro | 1000GB WD GP, 3*320GB Seagate 7200.10, 250GB WD2500 PATA, 200GB Maxtor DM10 SATA = 2410GB

Permalänk
Medlem

nå var priserna skyhöga alltid..

Visa signatur
Permalänk
Avstängd

Så, när kan man få en 24" för 2500 kr?
2030?

Visa signatur

PC #1: 60GB Corsair Nova2 Series|Samsung Spinpoint 250GB, WDC 500GB, WDC 1TB, WDG 1TB, Seagate 1TB|BENQ G2222HD, BENQ G2400W|Fractal Define R3|MSI 790XT-G45 Crossfire|Phenom II 720 BE X4 3.5GHz|Sapphire HD5850 1GB 725/1000|4GB DDR2 800MHz|Corsair 650W TX PSU|Logitech G15 Blue|ACE EDGE 3200|Corsair HS1A|Asus XONAR DX|Logitech X-530 | HD555.
PC #2: i5 2500k 4.2GHz|8GB DDR3 1600MHz|HD6970 Crossfire|850W Corsair|60GB SSD|WDC 1TB

Permalänk
Avstängd
Skrivet av Gerthoi:

För det andra så förutsätter jag att dessa displayer kan tänkas användas till lite allt möjligt och då är det givet att de är så standardiserade som möjligt d.v.s. har en upplösning på s.k. full 1080 standard eller 1920x1080 om man så vill. 1920x1200 i alla ära men procentuellt så är det en försvinnande ovanlig standard.

1080 är en pytte upplösning.
Kan vi inte få "Extreme HD" som vissa kallar det istället för att bli limiterade till små upplösningar?
Alla har inte tänkt köra Eyefinity lösningar.

Visa signatur

PC #1: 60GB Corsair Nova2 Series|Samsung Spinpoint 250GB, WDC 500GB, WDC 1TB, WDG 1TB, Seagate 1TB|BENQ G2222HD, BENQ G2400W|Fractal Define R3|MSI 790XT-G45 Crossfire|Phenom II 720 BE X4 3.5GHz|Sapphire HD5850 1GB 725/1000|4GB DDR2 800MHz|Corsair 650W TX PSU|Logitech G15 Blue|ACE EDGE 3200|Corsair HS1A|Asus XONAR DX|Logitech X-530 | HD555.
PC #2: i5 2500k 4.2GHz|8GB DDR3 1600MHz|HD6970 Crossfire|850W Corsair|60GB SSD|WDC 1TB

Permalänk
Medlem
Skrivet av ale2:

och varför skulle det vara intressant?

Nej, du får inte mer skärmyta. Nej, du får inte fler pixlar.

Den här produkten hade dock inte blivit noterbart dyrare med 5:4 eller 16:10 men eftersom marknaden vill ha 16:9 skärmar 2011, (inte 16:10 eller 5:4) är det självklart för Sony att producera i det formatet.

Jo man får fler pixlar, dvs mer mer yta att utnyttja till fler fönster, program osv.

Referens att utgåifrån, 24", 16:9 = 1920x1080 px, 16:10 = 1920x1200 px 16:9 = 1920x1080 = 2073600 px 16:10 = 1920x1200 = 2304000 px Skillnad i antal pixlar = 2304000 - 2073600 = 230400 px (Skillnad/ursprungliga värdet) * 100 = antal % skillnad i yta. (230400 / 2304000) * 100 = 10 I detta fallet blir det 10% fler pixlar och större användbar skärmyta i Windows.

Det är alltså 10% fler pixlar med 16:10 i detta läget, och det känns som mer än 10% då det rör sig om höjden, du ser mer av hemsidor utan att scrolla ner, underlättar vid användning av Photoshop, videoredigering, mer yta i spel för bättre känsla osv osv. Kom inte och säg att jag har fel när du själv inte vet vad du pratar om.

Jag bjuder på stavfel och ev. räknefel då jag är riktigt trött, men principen är denna.

Skrivet av Tommy_h:

16:10 ger 1920x1200 och 16:9 1920x1080

Så du får både mer skärmyta och fler pixlar!

Precis, jag heter också Tommy btw, tjenare! Kul att vi verkar förstå detta iaf.

Skrivet av ale2:

1680*1050 är 16:10 och 2560*1440 är 16:9 vilket visar att ditt resonemang inte håller.

1920*1200 är en upplösning som knappt görs längre utan de allra flesta 16:10 skärmar som görs är faktiskt 1680*1050. De allra flesta 16:9 bildskärmar som görs är 1920*1080.

Ja och det säger exakt.... vad? Att skärmtillverkarna är snåla och vill göra så bra vinst som möjligt.

Skrivet av Tommy_h:

Vet mycket väl att det är 16:9 som gäller idag, det betyder inte att du hade rätt i ditt tidigare inlägg.

Troll

Mjo, även jag kom att tänka på troll vid det här läget.

Skrivet av ale2:

Du vet inte vad du snackar om.

Jag har rätt när jag säger att det är bullshit att 16:10 ger fler pixlar än 16:9. 16:10 och 16:9 anger ration. Inte pixelmängden.

Om du säger något felaktigt. Backa, erkänn ditt misstag istället för att gnabba.

Säger som du: "Om du säger något felaktigt. Backa, erkänn ditt misstag istället för att gnabba." Har visat tydligt ovan hur det fungerar. Hoppas du lever som du lär.

Skrivet av Esseboy:

16:10 har 2560x1600 medans 16:9 har 2560x1440 vilket visar att dit resonemang inte håller.

Så du menar att om jag gör en skärm med 16:5 24" Så har den lika mycket skärm yta som en 16:10 24"?? O.B.S man mäter tum diagonalt...

1920x1200= 2,304Mp 16:10 24"
1920x1080= 2,0736Mp 16:9 24"

Vilken panel har fler pixlar och större skärmyta?

Bra sagt. Dags för ale2 att hissa den vita flaggan. Vet inte varför jag ens engagerar mig i att prata med någon så trångsynt, men är väl min välvilja att lära.

Någon i tråden: "För det andra så förutsätter jag att dessa displayer kan tänkas användas till lite allt möjligt och då är det givet att de är så standardiserade som möjligt d.v.s. har en upplösning på s.k. full 1080 standard eller 1920x1080 om man så vill. 1920x1200 i alla ära men procentuellt så är det en försvinnande ovanlig standard."

1080p är en TV/film-upplösning från början, inget gjort för datorskärmar, denna nyhet står det klart och tydligt "datorskärmar". De gör skärmarna i 16:9 för att pressa priserna. Konsumenterna i allmänhet vet inte riktiga skillnaden, då företagen tjänar på det (bevisligen verkar ju inte folk här heller förstå) men skulle du ha samma skärm i 16:9 och 16:10 framför dig för samma pris, vad skulle du välja? Ja 95% väljer självklart 16:10. Så det är inte konsumenternas vilja heller, förutom att vi i regel ofta lägger en orimligt liten del av sina pengar på skärm men mycket på datorn (vilket leder till prispress bland tillverkarna).

I mina ögon lär det vara en 70/30 eller 60/40 situation då jag sitter och kollar på skärmen flera timmar dagligen och får se rena färger, kontrast, skärpa samt bra betraktningsvinklar och bra anslutningsmöjligheter. För att inte nämna bra support, dör skärmen så är Dell här arbetsdagen efter med en ny skärm och tar med sig den trasiga.

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Skrivet av aMp:

Jo man får fler pixlar, dvs mer mer yta att utnyttja till fler fönster, program osv.

Referens att utgåifrån, 24", 16:9 = 1920x1080 px, 16:10 = 1920x1200 px 16:9 = 1920x1080 = 2073600 px 16:10 = 1920x1200 = 2304000 px Skillnad i antal pixlar = 2304000 - 2073600 = 230400 px (Skillnad/ursprungliga värdet) * 100 = antal % skillnad i yta. (230400 / 2304000) * 100 = 10 I detta fallet blir det 10% fler pixlar och större användbar skärmyta i Windows.

Det är alltså 10% fler pixlar med 16:10 i detta läget, och det känns som mer än 10% då det rör sig om höjden, du ser mer av hemsidor utan att scrolla ner, underlättar vid användning av Photoshop, videoredigering, mer yta i spel för bättre känsla osv osv. Kom inte och säg att jag har fel när du själv inte vet vad du pratar om.

Jag bjuder på stavfel och ev. räknefel då jag är riktigt trött, men principen är denna.

Precis, jag heter också Tommy btw, tjenare! Kul att vi verkar förstå detta iaf.

Ja och det säger exakt.... vad? Att skärmtillverkarna är snåla och vill göra så bra vinst som möjligt.

Mjo, även jag kom att tänka på troll vid det här läget.

Säger som du: "Om du säger något felaktigt. Backa, erkänn ditt misstag istället för att gnabba." Har visat tydligt ovan hur det fungerar. Hoppas du lever som du lär.

Bra sagt. Dags för ale2 att hissa den vita flaggan. Vet inte varför jag ens engagerar mig i att prata med någon så trångsynt, men är väl min välvilja att lära.

Någon i tråden: "För det andra så förutsätter jag att dessa displayer kan tänkas användas till lite allt möjligt och då är det givet att de är så standardiserade som möjligt d.v.s. har en upplösning på s.k. full 1080 standard eller 1920x1080 om man så vill. 1920x1200 i alla ära men procentuellt så är det en försvinnande ovanlig standard."

1080p är en TV/film-upplösning från början, inget gjort för datorskärmar, denna nyhet står det klart och tydligt "datorskärmar". De gör skärmarna i 16:9 för att pressa priserna. Konsumenterna i allmänhet vet inte riktiga skillnaden, då företagen tjänar på det (bevisligen verkar ju inte folk här heller förstå) men skulle du ha samma skärm i 16:9 och 16:10 framför dig för samma pris, vad skulle du välja? Ja 95% väljer självklart 16:10. Så det är inte konsumenternas vilja heller, förutom att vi i regel ofta lägger en orimligt liten del av sina pengar på skärm men mycket på datorn (vilket leder till prispress bland tillverkarna).

I mina ögon lär det vara en 70/30 eller 60/40 situation då jag sitter och kollar på skärmen flera timmar dagligen och får se rena färger, kontrast, skärpa samt bra betraktningsvinklar och bra anslutningsmöjligheter. För att inte nämna bra support, dör skärmen så är Dell här arbetsdagen efter med en ny skärm och tar med sig den trasiga.

En ratio kan inte ha mer pixlar än en annan ratio då en ratio inte specificerar vilken upplösning det handlar om och det är vad han försöker säga.

16:10 har inte per definition mer pixlar än 16:9. Man kan inte säga ett skit om antalet pixlar utifrån endast den informationen och det var hans poäng... *suck*

Visa signatur

“Every atom in your body came from a star that exploded. And, the atoms in your left hand probably came from a different star than your right hand. It really is the most poetic thing I know about physics: You are all stardust. ... The stars died so that you could be here today.” - Lawrence M. Krauss

Permalänk
Medlem

När det gäller skärmar och det normaliserade native-upplösningar så finns det inte så mycket att orda om? Det finns oftast två olika upplösningar för samma tum och då gäller allt som har skrivits. Sedan om han märker på ord är en annan sak. Han förstår ju vad vi menar. Dvs backa när man har fel och lev som man lär.

God natt!

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem

Jag som sitter i köpetankar på en 24timmare och så dyker detta kapet upp!

Visa signatur

HD5770 1GB| Phenom 2 x2 555 3.2ghz BE@ x3 3.6Ghz| 2x2048ddr3 corsair xms3 1600mhz | Corsair HX520w | HP w2207| Antec 180b

Permalänk
Skrivet av anon100733:

Nej man vill väl ha lite mer yta på höjden så man får plats med en toolbar också i videoredigeringsprogrammet utöver själva 16:9 renderingen

Skrivet av MooDHooDs:

Ja för seriösa videoredigerare använder verkligen en skärm.

Jag tänkte också så. Om du har en referensskärm för att spela upp 1080p så vill du väl inte ha massa paneler som stör? Du kör den färdiga bilden/preview på din referens och paneler och fönster på din workspace-skärm. Jag har iaf sett folk jobba så.

Permalänk
Avstängd
Skrivet av ostrimissimo:

Jag tänkte också så. Om du har en referensskärm för att spela upp 1080p så vill du väl inte ha massa paneler som stör? Du kör den färdiga bilden/preview på din referens och paneler och fönster på din workspace-skärm. Jag har iaf sett folk jobba så.

Varför inte ta bort alla upplösningar över 1920x1080, så blir alla glada!
Och hur stör paneler om man nu kan dölja dom i dom flesta programmen? Inte tänkt så långt eller?

Visa signatur

PC #1: 60GB Corsair Nova2 Series|Samsung Spinpoint 250GB, WDC 500GB, WDC 1TB, WDG 1TB, Seagate 1TB|BENQ G2222HD, BENQ G2400W|Fractal Define R3|MSI 790XT-G45 Crossfire|Phenom II 720 BE X4 3.5GHz|Sapphire HD5850 1GB 725/1000|4GB DDR2 800MHz|Corsair 650W TX PSU|Logitech G15 Blue|ACE EDGE 3200|Corsair HS1A|Asus XONAR DX|Logitech X-530 | HD555.
PC #2: i5 2500k 4.2GHz|8GB DDR3 1600MHz|HD6970 Crossfire|850W Corsair|60GB SSD|WDC 1TB

Permalänk
Medlem
Skrivet av Aka_The_Barf:

kanske vi ÄNTLIGEN kan få en teknik som är bättre än crt. kul att det händer något med oled då det varit ganska stendött ett bra tag nu(om man bortser från mobilmarknaden)

Skrivet av Hardware guy:

Så kort tid som 5 månader sedan rapporterades att LG skulle börja sälja 31" OLED i mars, men sedan helt tyst.
http://www.electricpig.co.uk/2010/09/03/lg-31-inch-oled-tv-on...
Frågan är om OLED någonsin tar fart innan något bättre utvecklas (till stora paneler då).

Skrivet av Aka_The_Barf:

SED finns, enkelt förklarat är det som en tjock tv fast varje pixel har en minijon kanon(om jag inte minns fel) fast den känns ännumer avlägsen.

Skrivet av samots:

En bra crt är riktigt bra och borde också så vara efter över 50 år av utveckling, håller med dig och hoppas på att det kommer en ännu vassare teknik.
Crt har sina nackdelar men det har verkligen lcd, plasma och dlp också.

Har hellre en stor klump med bra bild än ett löv med halvtaskig och seg bild

Håller med dessa talarare. Kör fortfarande med CRT och tycker det slår precis allt annat. OLED har jag aldrig haft så stora förhoppningar på just pga den väldigt korta livslängden, och att de olika dioderna åldras olika snabbt och gör bilden färgmässigt ojämn efterhand. Men just nu verkar det vara det enda som kanske skulle kunna komma som efterföljare till LCD, så jag har börjat hoppas lite på det. Bättre än inget... Även om det ser väldigt mörkt ut där också.

SED verkar riktigt lovande, men jag har slutat följa det spåret sen drygt ett år och stilla börjat acceptera att utvecklingen av alla typer av kvalitativa bildvisningar för konsumentmarknaden har upphört.
Att de där jävla Nano applications eller vad de hette skulle bromsa upp hela SED-utvecklingen... det blev nog SEDens död, tyvärr. Blir mer sorgsen ju mer jag tänker på det. Delvis därför jag lämnat spåret.

Det fanns ju FED också, en variant av SED kan man säga. Men det lade Sony ner utvecklingen av under hösten 2009 i spåren av finanskrisen, och förmodligen för att de trodde att folk aldrig skulle uppskatta bildkvaliten såpass att tillräckligt många köpte den för att bära investeringarna.

Jag är orolig för att allt är för sent. LCD-skärmar är så billiga nu, centimetertunna skärmar finns redan, och taskiga LCDer har funnits så länge nu att folk är vana nu vid den i regel mjölkiga bildkvaliten och snäva färgrymden. Ingen vet längre vad bildkvalitet är. Eller har kanske slutat uppskatta det med intåget och acceptansen av mobilkameror och Youtube.
Utvecklingen har gått bakåt på vissa plan de senaste 10-20 åren.

Skrivet av l'o'vet:

10 bitars färgdjup? 1024 färger? Kul skärm att pantsätta sig tills man är 65 för

10 bitar per färgkanal, alltså 30 bitar totalt. 1 073 741 824 färger uträknat. Bortom truecolor. Deepcolor.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem
Skrivet av Curly:

Oh no u dont! Det är tillräckligt jobbigt att behöva förklara att "LED-TV" är samma gamla LCD paneler som som sålts det senaste årtiondet, försök inte få en gammal DLP-projektor att framstå som en "laser-TV"

Ok ok, det är inte en hett egen teknik men ändå inte vanlig DLP.
Vad sägs om Zeus Display tekniken då, det är en teknik som är helt egen även om ”är” kanske är fel ord.

Skrivet av Hamzta:

1080 är en pytte upplösning.
Kan vi inte få "Extreme HD" som vissa kallar det istället för att bli limiterade till små upplösningar?
Alla har inte tänkt köra Eyefinity lösningar.

Jo, jag håller med, extreme hd är dock bara ett löst begrepp, formatet 4k däremot existerar i nuläget på t.ex. projektorer även om det brukar kunna vara lite olika värden men 4096x2304 och (square pix 16:9), 4096x2160 och 4096x3112 (non square film, olika aspects) lär vara bland de vanligare.

Dock är HD i full 1080 fortfarande standard vad gäller video och filmproduktion och då dessa skärmar vänder sig till ja folk som mig som jobbar med dylikt så är det rätt logiskt att det blir i 1080. T.ex. så är det väldigt sällan man jobbar med material över 1080, det är endast scannad film eller material från RED ONE som genererar större bilder i dag, iaf sådant jag stött på. Alla andra digitala kameror, video och digital film så som DSLRer, Arri Alexa, Viper, Panavision Genesis, Sonys filmspecade HDCAM SR kameror m.m. spelar in i 1080.

Skrivet av aMpari:

Jo man får fler pixlar, dvs mer mer yta att utnyttja till fler fönster, program osv.

[code]Referens att utgåifrån, 24", 16:9 = 1920x1080 px, 16:10 = 1920x1200 px
16:9 = 1920x1080 = 2073600 px
16:10 = 1920x1200 = 2304000 px
….

Någon i tråden: "För det andra så förutsätter jag att dessa displayer kan tänkas användas till lite allt möjligt och då är det givet att de är så standardiserade som möjligt d.v.s. har en upplösning på s.k. full 1080 standard eller 1920x1080 om man så vill. 1920x1200 i alla ära men procentuellt så är det en försvinnande ovanlig standard."

1080p är en TV/film-upplösning från början, inget gjort för datorskärmar, denna nyhet står det klart och tydligt "datorskärmar". De gör skärmarna i 16:9 för att pressa priserna. Konsumenterna i allmänhet vet inte riktiga skillnaden, då företagen tjänar på det (bevisligen verkar ju inte folk här heller förstå) men skulle du ha samma skärm i 16:9 och 16:10 framför dig för samma pris, vad skulle du välja? …

Sant att de skriver datorskärmar men i samma artikel skriver de: ”Än så länge handlar det inte om skärmar för gemene man utan för professionella användare som sysslar med videoproduktion”. Därtill skriver de att skärmarna har SDI-ingång vilket är ett professionellt överföringsformat för video.

Ett logiskt antagande gör klart att detta således rör sig om s.k. referensskärmar d.v.s. skärmar inte avsedda att jobba på med fönster och dylikt utan för att i första hand uppvisa materialet man jobbar med. Må så vara för datorer i första hand men med SDI in så funkar de nog i ett kontrollrum för TV eller liknande också. Att då ta fram skärmar i ett format som inte är standardiserat på samma sätt som HD 1080 är kanske inte så smart om man kan köra en generell standard som är så utbredd och generell som HD formatet blivit.

Att sedan tjafsa som ni alla gör angående aspect ratio ställt mot upplösning är ju bara dumt då ni snackar om olika saker. Först, 1080p är ingen upplösning, p står för progressive och har med uppspelningen och inte upplösningen att göra.
1920x1080 och 1920x1200 är upplösningar och kan aldrig vara aspect ratios, lika lite som 16:9 eller 16:10 är upplösningar.
Ang aspect ratio, film d.v.s. 35mm är ofta en nästan kvadratisk 4:3 (eller i närheten) ruta och dras sedan ut till rätt format vid visning. 16:9, eller 1.78:1, är alltså bara ett förhållande.
1920x1080 är en upplösning d.v.s ett antal pixlar, hur stora eller hur dessa pixlar ser ut är däremot inte på något sätt bestämt av upplösningen. Pixlarna kan vara avlånga och visa en 2.39:1 bild.

A ja, tack återigen för ordet och god natt /Pontus w

Visa signatur

För länge sedan hade jag tydligen: Mac Book Pro 13" & Athlon 64 X2 4200+, Asus A8N32-SLI Deluxe, Corsair 3GB TwinX DDR 400, 2x Raid 0 Seagate Barracuda 160GB:s SATA, GeCube Radeon x1900xt , Nec ND-3500, Audigy2 Platinum, Cooler Master ATC-201 m.m.

Permalänk
Skrivet av l'o'vet:

10 bitars färgdjup? 1024 färger? Kul skärm att pantsätta sig tills man är 65 för

lol...

Antar att du sitter med en TN panel. Din TN panel har 6 bitars färgdjup. Alltså kan din skärm bara visa 64 färger samtidigt?

Nej, det är inte så det funkar. Det är 10 bit per RGB färg, alltså har din genomsnittliga TN panel 18 bitar, och denna skärmen 30 bitar. EXTREMT mycket bättre färgåtergivning på denna, helt enkelt.

Permalänk
Medlem

Har inte oled begränsad livstid?
Har för mig att det var så i början iaf

Visa signatur

What evah! i'll do what i want! | Det stavas väl inte väll...såvida du inte ska skriva välling.
"Det var väl bra"

Permalänk
Medlem
Skrivet av aMp:

1920x1080 och 1920x1200 är upplösningar och kan aldrig vara aspect ratios, lika lite som 16:9 eller 16:10 är upplösningar. 1920x1080 är en upplösning d.v.s ett antal pixlar, hur stora eller hur dessa pixlar ser ut är däremot inte på något sätt bestämt av upplösningen. Pixlarna kan vara avlånga och visa en 2.39:1 bild.

Exakt

Skrivet av Triffid:

En ratio kan inte ha mer pixlar än en annan ratio då en ratio inte specificerar vilken upplösning det handlar om och det är vad han försöker säga.

16:10 har inte per definition mer pixlar än 16:9. Man kan inte säga ett skit om antalet pixlar utifrån endast den informationen och det var hans poäng... *suck*

Exakt

Permalänk
Medlem
Skrivet av Prinsalibaba:

Eller vad sägs om en 22,5 tums skärm för ynka 143 000kr.
http://www.prisjakt.nu/produkt.php?p=431763

Men beställer man den direkt från Eizo kostar den bara 75000 kr plus moms:
http://www.eizo.se/default.aspx?page=11&product=CG232WK

Permalänk
Skrivet av Hamzta:

Varför inte ta bort alla upplösningar över 1920x1080, så blir alla glada!
Och hur stör paneler om man nu kan dölja dom i dom flesta programmen? Inte tänkt så långt eller?

Jag bara tänkte att om man vill ha 16:10 istället för 16:9 för att få plats med paneler så hade man nog tänkt använda de panelerna också. Det är inte så stor mening att ha plats för paneler om man ändå ska dölja dem. Det blir ju skärmyta som går till spillo. Jag skulle då hellre jobba på det sättet jag beskrev tidigare. Och jag (med den begränsade, men dock existerande, erfarenhet jag har) tror att denna skärmen är gjord för att vara en vid-sidan-av-skärm (referens/preview) snarare än en skärm man jobbar på.

Skrivet av Gerthoi:

Sant att de skriver datorskärmar men i samma artikel skriver de: ”Än så länge handlar det inte om skärmar för gemene man utan för professionella användare som sysslar med videoproduktion”. Därtill skriver de att skärmarna har SDI-ingång vilket är ett professionellt överföringsformat för video.

Ett logiskt antagande gör klart att detta således rör sig om s.k. referensskärmar d.v.s. skärmar inte avsedda att jobba på med fönster och dylikt utan för att i första hand uppvisa materialet man jobbar med. Må så vara för datorer i första hand men med SDI in så funkar de nog i ett kontrollrum för TV eller liknande också. Att då ta fram skärmar i ett format som inte är standardiserat på samma sätt som HD 1080 är kanske inte så smart om man kan köra en generell standard som är så utbredd och generell som HD formatet blivit.

Precis vad jag försöker säga. Det är väl målgruppen/målkategorin för sådana här skärmar?

Skrivet av Gerthoi:

Att sedan tjafsa som ni alla gör angående aspect ratio ställt mot upplösning är ju bara dumt då ni snackar om olika saker. Först, 1080p är ingen upplösning, p står för progressive och har med uppspelningen och inte upplösningen att göra.
1920x1080 och 1920x1200 är upplösningar och kan aldrig vara aspect ratios, lika lite som 16:9 eller 16:10 är upplösningar.
Ang aspect ratio, film d.v.s. 35mm är ofta en nästan kvadratisk 4:3 (eller i närheten) ruta och dras sedan ut till rätt format vid visning. 16:9, eller 1.78:1, är alltså bara ett förhållande.
1920x1080 är en upplösning d.v.s ett antal pixlar, hur stora eller hur dessa pixlar ser ut är däremot inte på något sätt bestämt av upplösningen. Pixlarna kan vara avlånga och visa en 2.39:1 bild.

Ok förlåt, jag sade "1080p". Jag förstår att det är fel och inte har med saken att göra. Jag visste inte vad standarden heter. Vad heter den? HD 1080?

Permalänk
Medlem

Vad dåligt att Sony inte gjorde en 32:18-skärm, då hade den ju varit mycket större!!!

1920x1200/1080 är inte en upplösning, det är en bildstorlek. Upplösningen anger bildpunkttäthet per areaenhet. Det är synd att man inte håller sig till det metriska systemet utan iställer blandar tum/mm/cm, det bidrar nog en del till förvirringen.

Visa signatur

//Alex
"Non-cooperation with evil is as much a duty as cooperation with good"

Permalänk
Medlem
Skrivet av ostrimissimo:

Jag bara tänkte att om man vill ha 16:10 istället för 16:9 för att få plats med paneler så hade man nog tänkt använda de panelerna också. Det är inte så stor mening att ha plats för paneler om man ändå ska dölja dem. Det blir ju skärmyta som går till spillo. Jag skulle då hellre jobba på det sättet jag beskrev tidigare. Och jag (med den begränsade, men dock existerande, erfarenhet jag har) tror att denna skärmen är gjord för att vara en vid-sidan-av-skärm (referens/preview) snarare än en skärm man jobbar på.

Om du ska jobba med HD material ska du givetvis ha en skärm som har såväl fler pixlar på bredden som höjden än 1920*1080. Att sitta i tex Photoshop och jobba med HD material i 1920*1200 är ingen trevlig upplevelse.

Därför ska du ha åtminstone 2560*1440 om du ska arbeta med HD material. För den stora majoriteten som inte gör det är 1920*1080 att föredra eftersom att upplösningen är anpassad till 16:9 som är standard idag.

Permalänk
Medlem
Skrivet av Gerthoi:

Ok ok, det är inte en hett egen teknik men ändå inte vanlig DLP.
Vad sägs om Zeus Display tekniken då, det är en teknik som är helt egen även om ”är” kanske är fel ord.

Av det jag hört så ska Mitsu's "laser-TV" ha en bra bild, klart bättre än traditionella RP-DLP TV'n, men rent tekniskt är jag inte särkillt imponerad av att man belyser en DMD med laser istället för en glödlampa.

Zeus-displayen verkar ha varit hyfsat spännande men det tycks ha stannat vid en prototyp för ett decennium sedan. OLED däremot är redan idag kommersiellt gångbart, om än bara i mobiltelefon-storlekar.

Visa signatur

WS: DFI LP UT X38T2R (Gigabyte X38-DQ6 = Trasigt)| Intel C2D E6750 | 4*1 GiB Twinmos PC2-6400 | ATI Radeon HD4870 1GB | WD Caviar XL "AAKS" SATA 500GB | Antec Neopower 480W | Antec SLK3700-BQE
Server: DFI LP NF4 Ultra | AMD 3000+ "winchester" | 2*512MiB PC3200 | ATI Radeon HD2400pro | 1000GB WD GP, 3*320GB Seagate 7200.10, 250GB WD2500 PATA, 200GB Maxtor DM10 SATA = 2410GB

Permalänk
Medlem
Skrivet av RoboDuCk:

Vad dåligt att Sony inte gjorde en 32:18-skärm, då hade den ju varit mycket större!!!

1920x1200/1080 är inte en upplösning, det är en bildstorlek. Upplösningen anger bildpunkttäthet per areaenhet. Det är synd att man inte håller sig till det metriska systemet utan iställer blandar tum/mm/cm, det bidrar nog en del till förvirringen.

Märk ord.
Var hittar du empiriska belägg för att den definitionen av ordet upplösning är korrekt?
Termen upplösning som används här av mig med flera rörande datorskärmar och tv-signaler etc är en översättning av engelskans resolution och har kommit att innebära lite allt möjligt.
http://en.wikipedia.org/wiki/Display_resolution
http://en.wikipedia.org/wiki/Resolution
http://sv.wikipedia.org/wiki/Upplösning

Tex så är VGA en etablerad ”upplösning” d.v.s. 640x480 men givetvis är det inte allt vga är. Idiotiskt att tjafsa om sådant här.

God kväll och mvh /Pontus w

Visa signatur

För länge sedan hade jag tydligen: Mac Book Pro 13" & Athlon 64 X2 4200+, Asus A8N32-SLI Deluxe, Corsair 3GB TwinX DDR 400, 2x Raid 0 Seagate Barracuda 160GB:s SATA, GeCube Radeon x1900xt , Nec ND-3500, Audigy2 Platinum, Cooler Master ATC-201 m.m.

Permalänk
Medlem
Skrivet av l'o'vet:

10 bitars färgdjup? 1024 färger? Kul skärm att pantsätta sig tills man är 65 för

Vet inte om seriös.

10 bitar per kanal. Alltså 1024 toner per röd, blå och grön.
Det är 64 gånger fler färger än 8 bitar.

Vad nu det spelar för roll, då man allt för ofta inte märker skillnad mellan 8 och 10 såtillvida man inte förändrar bilden eller kör testbild.

Visa signatur

It's not that you don't comprehend what's laid out before you, or that you're unable to process. It's all about what you're to live up to, your position, an identity created by the expectations of your affiliation.

Permalänk
Medlem

Upplösningen på 1920x1200/1080 px anger inte storleken på skärmen överhuvudtaget! Tex finns både 32" och 50" tv apparater som har full HD dvs 1920x1080 px. Det säger ju ingenting om den fysiska storleken då båda skärmarna har samma upplösning trots olika fysiska storlekar. Du menar förmodligen storleken räknat i pixlar. Problemet med pixel storleken är att det är ett relativt mått i förhållande till upplösningen. Dvs att en pixel har inget fysiskt mått som tex en tum har.

Permalänk

En 16:10 24 tums skärm med 1920x1200 är större och har därmed plats med mer på skärmen än motsvarande skärm med 16:9.
Just därför kostar en 16:10 skärm mer än motsvarande 16:9 skärm.

16:10>16:9

Permalänk
Medlem
Skrivet av swahnroger:

En 16:10 24 tums skärm med 1920x1200 är större och har därmed plats med mer på skärmen än motsvarande skärm med 16:9.
Just därför kostar en 16:10 skärm mer än motsvarande 16:9 skärm.

16:10>16:9

På vilket sätt är en mindre skärm med färre pixlar motsvarande? Varför måste man ha samma diagonala längd och samma antal horisontella pixlar på två skärmar med olika bildförhållande? Mer rättvist är väl att ta liknande skärmyta och liknande antal pixlar vilket skulle kunna bli en 16:10 22,5" 1920x1200 mot en 16:9 23" 2048x1152.