Intel vill göra fiberoptik mainstream

Permalänk
Citat:

Ursprungligen inskrivet av w4nt3n
haha, gick hem från skolan idag och diskutera det här med min kompis xD. jag tycker iden är grymt bra. förutom att det kommer vara grymt dyrt ibörjan. det finns ju anledningar att man inte har fiber hemma i huset även fast du har det fram till huset det är dyrt och kablarna går inte så bra att böja. sen så kan man inte många ms på det kanske 1ms om det inte är 20ns eller nått. jag är tveksam att resten av hårdvaran behöver så bra kablar. tror det blir dyrt för vad man tjänar för lite bättre respons tid och överföringshastighet än om man gemför med kablar som överför elektroner istället för ljus. visst man kan ha högre överföringshastigheter men vad är det som behöver bättre kabel? koppar fungerar bra som överförings medium än sålänge. fast finns ju alltid dom som ska överdriva.

Om du har tex en eller ett antal serverar i ett annat rum (typ källare, vind klädkammare,etc) eller kanske till och med datorn för att slippa ljud och värme så kan du bara dra en sådan här kabel till ditt arbetes/sov/kontorsrum där du kanske har tre 22" skärmar och en 1080p tv, ett tangentbord, en mus, ett minne, en kamera, en extern hdd, skanner och/eller skrivare, högtalare/hörlurar, mikrofon, webbkamera,mm. Jag kan säga att jag har alla dessa "tillbehör" i samma rum så det är fullt realistiskt. Tänk nu att bara ha en fiber kabel kopplat till rummet där du har din(a) dator(er) också har du bara någon sorts hub med extern strömförsörjning(eftersom att du kommer koppla in många strömkrävande enheter) hur smidigt skulle inte det vara.

Sen om du ska mecka med datorn så behöver du bara dra ut två sladdar (Light Peak och ström).

Ett annat exempel skulle kunna vara extern hårdvara så som grafikkort både till stationära datorer (för de som inte vågar/kan mecka själva), men även till laptops så du kan få mer kraft när du är hemma. Laptops blir mer och mer populära men ett problem är spelprestanda och att det är bökigt att uppdatera (ofta svårare att skruva men framför allt svårt att få tag i delar). Tänk då att med en Light Peak kabel/dockkontakt koppla in laptopen till hårdvara som får den att bli som en stationär, inga behov att koppla in massa skärmar, möss, tangentbord, etc eftersom allt skulle kunna köras över en Light Peak kabel till datorn med en extern hub.

Detta är båda användnings områden som skulle vara aktuella idag medan längre fram i tiden med snabbare så lär dessa hastigheter i stort sätt krävas av mycket hårdvara och då skulle det antagligen behövas ett ännu snabbar gränssnitt för dessa användnings områden.

Visa signatur

[i7 2600k @ 5GHz| NH-D14, fläktar utbyta mot ljudlösa 120mm SySS 800| Asus P8P67| HD6870 DirectCU| Corsair 4x8GB (32GB) 1600MHz DDR3| Moddat Corsair 550VX | Mac Pro / G5 Chassi| 2x120GB raid0 Intel 520 sys+ 2x3TB slask & home (riktig lagring på 12TB ZRAID NAS som även home backuppas/rsyncas till) ] - Helt ljudlös om man inte lägger örat intill chassit
[ MacBook Pro Retina 13 | 16GB ram | 256GB PCIe SSD | OS X(main), Arch ]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Umarrion
om dem kan göra mindre pixlar så kan man ha högre upplösning på en mindre skärm och det är väl aldrig fel.

Men det var ju just det jag skrev som inte gick. Om upplösningen blir större (utan att öka skärmytans fysiska storlek) så blir det till slut för smått för att läsa/se det som finns på skärmen.

Citat:

Ursprungligen inskrivet av -=|ZetaXtreme|=-
Jag förstår dina argument vad du säger stämmer men tänk på det på ett annat vis.

Om upplösningen var låt säga 4 eller 16 gånger så hög på en 22" som på en vanlig 1680x1050. Då skulle man kunna ha betydligt detaljrikare bilder och text på skärmarna och med ett smart operativsystem så kunde den bara "zooma" alla gamla bilder så att de blev 4, 16 eller kanske 64 gånger större, beroende på hur många gånger högre upplösning skärmen har. Bara man hade ökat med 4 gånger så mycket varje gång. Alltså 4, 16, 64, 256, 1024, 4096, 16384, osv. På detta viset hade inte kvaliteten i de gamla bilderna blivit sämre, eftersom att bilderna hade fått exakt samma proportioner. Tänk dig att du tar dig en blå fyrkan och sedan fyra stycken blåa fyrkanter som är fyra gånger mindre intill varandra utan mellanrum. Det skulle bli en lika stor och lika dan blå fyrkant.

För att systemet skulle veta hur den skulle skilja nya från gamla bilder så skulle det vara möjligt att lägga till dold information i nya bilder skapade för den nya upplösningen eller använda sig av ett annat format, vektorgrafik är ju inte helt fel, är dock inte så insatt och vet inte om det går att få exakt samma kvalitet i vektorgrafik.

Nu är ju detta någon som rimligen skulle kunna hända på några år men en fullt möjlig och rimlig utveckling över en längre tid.

Ja, det är ju möjligt. Men någonstans finns det en gräns. Jag har en 20" 1600x1200. Säg att det var en 20" 3200x2400. Kanske skulle jag se en skillnad där men går vi ett steg till så ser jag ingen skillnad, och jag tror inte att någon annan gör det heller. Så någonstans finns det en praktisk maxgräns för vad våra ögon kan se, utrymmet skärmen tar, avståndet från skärmen, osv.

Citat:

Ursprungligen inskrivet av darkages
Vanlig svensson uppfattning enligt mig. Tänk på folk som kör projektor eller när du går på bio.

Jag sitter 3.3m ifrån min 50" och det är inte för nära, bluray är fantastisk och dvd är väldigt bra, dom ända gångerna bilden blir märkbart dålig är när bildsignalen i sig inte håller kvalitén. Men det är väl ändå rätt torrt att gå ner i tum för bilden kan vara dålig, då kan man lika gärna sitta på en tjock tv som ger superb bild i 30", speciellt när bildsignalen inte håller måttet.

Här är en trevlig guide som räknar ut betraktnings avståndet för att få ut max av dina tum:
http://myhometheater.homestead.com/viewingdistancecalculator....

Vad är den vanliga svenssonuppfattningen du säger att jag har? Jag ställer mig själv och forumet frågan när maxgränsen för skärmar nås. Hur kan du kan få det till en uppfattning är ju ganska makalöst.

Utsäkta mig att jag var otydlig, jag menade vanligt datoranvändande för en person. Sitta med browsers, utvecklingsverktyg bild/ljud/programmering, spel osv. Jag menar inte projektor eller bio, även fast man kan använda det där också. Börjar du prata bio så snackar vi redan om upplösningar som vanliga konsumenter inte har tillgång till. Dessutom är dessa produkter till för fler än en person som beskådar det som visas.

Visa signatur

ηλί, ηλί, λαμά σαβαχθανί!?

Permalänk
Avstängd

Kopparn är inte död än, min bredbandsleverantör är först i världen (enligt lokalpress) med att köra 100/100 genom kabel-TV nätet, gammalt skit alltså.

Har själv bara 40/40 till en struntsumma på 290kr mån utan Telias ocker linjer.

Visa signatur

ATI TALIBAN.
Är inte någon expert, men jag har inte akne heller.
NEVER UNDERESTIMATE THE POWER OF STUPID PEOPLE IN LARGE GROUPS.. "Betala i förskott på blocket?" tråden.

Permalänk
Medlem

-=|ZetaXtreme|=- jag förstår vad du menar, men det jag menar va bara att än så behövs det inte om du ska vara värst eller har pengar att göra av med på nått onödigt. Det kommer dröja innan det är värt pengarna(prestanda per krona). vet du hur mycket bara att fibernätverkskort kostar idag?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Lurcazzus
Ska de dissa Displayport när det fortfarande säljs dator med enbart VGA?

tycker det är dags att rensa upp bland bildskärmsportarna.
finns ju addapters om man skulle råka ha en gammal bildskärm eller grafikkort:S

Permalänk
Citat:

Ursprungligen inskrivet av Leedow
Men det var ju just det jag skrev som inte gick. Om upplösningen blir större (utan att öka skärmytans fysiska storlek) så blir det till slut för smått för att läsa/se det som finns på skärmen.

Såklart det är så, om man väljer att inte öka upplösningen på texten, ikonerna och allt annat. Fördelen med högre upplösning är bättre bildkvalité och bara för att det finns fler pixlar så förhindrar ju inte det från att man gör fonten lite större. Eller?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Leedow

Vad är den vanliga svenssonuppfattningen du säger att jag har? Jag ställer mig själv och forumet frågan när maxgränsen för skärmar nås. Hur kan du kan få det till en uppfattning är ju ganska makalöst.

Utsäkta mig att jag var otydlig, jag menade vanligt datoranvändande för en person. Sitta med browsers, utvecklingsverktyg bild/ljud/programmering, spel osv. Jag menar inte projektor eller bio, även fast man kan använda det där också. Börjar du prata bio så snackar vi redan om upplösningar som vanliga konsumenter inte har tillgång till. Dessutom är dessa produkter till för fler än en person som beskådar det som visas.

Svenssonuppfattningen som i vanligt förekommande och inte som i bög menar jag att nästan alla i min omkrets samt folk man träffar reagerar kraftigt på att jag sitter så nära en 50". Även folk som är lite halvintresserade av sånt här.

Håller med dig till fullo om att det är skillnad på dataskärm och bio system, man sitter då normalt närmre en datorskärm. Ögats uppfattnings förmåga för blir dock den samma Även en större bildyta har en sweetspot.

Angående avstånd och tum var det du som skrev att med 100" så skulle man förmodligen sitta så långt bort att det ändå blir som 30" för ögat... Och ergonomiska effekter av att sitta nära en stor bild. Du kanske överdrev men det var det jag svarade på.

När jag börjar prata bio så kanske det är upplösningar som vi vanliga kan få till gång till med fiberteknik

Så... Nej jag har ingen aning om max upplösning som kan nås men det fanns det några andra inslag i ditt inlägg som jag kunde svara på.

Kolla länken den är intressant.

Peace

Visa signatur

minhembio.com/darkages

Permalänk
Medlem

Personligen tycker jag att det saknas en STOR del i denna artikel. Läste om denna teknik på metro igår och det mest intressanta (min åsikt).

Redan nästa år planerar Apple att släppa de första datorerna med Light Peak-tekniken. En Light Peak-kontakt kan då ersätta alla portar på datorn.

Enligt Engadget kommer Light Peak att i princip alla olika typer av sladdar och kontakter som används i dag försvinner inom en nära framtid.

Saxat från metro

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Degerlund
Interesting.. Kanske ska vänta med att uppgradera datorn tills detta är standard

Man kanske skulle vänta på kvantdatorer..

Visa signatur
Permalänk
Medlem
Citat:

Ursprungligen inskrivet av bomber3
Kopparn är inte död än, min bredbandsleverantör är först i världen (enligt lokalpress) med att köra 100/100 genom kabel-TV nätet, gammalt skit alltså.

Har själv bara 40/40 till en struntsumma på 290kr mån utan Telias ocker linjer.

Det var ingen som snackade om internetanslutningar..

Visa signatur
Permalänk
Medlem

Men alltså... hur snabbt är koppartråd då? Hur snabba är anslutningarna inne i själva datorn? Vad är poängen med en sladd som kan överföra data snabbare än datorn kan internt? Eller kan den det? Lite siffror på diverse överföringshastigheter skulle uppskattas...

Visa signatur

Fractal Design R2 | BeQuiet Dark Power Pro 550 | Asus Rampage Formula | 2x Corsair XMS2 DDR2-8500 2048MB | Intel E8600 @ 3,72GHz | Noctua NH-U12P | Palit GTX 1080 Super Jetstream | Samsung EVO 840 Series SSD 250 GB | Intel X25-M 80GB | Hitachi Deskstar P7K500 500GB SATA | WD Red 3TB SATA III | WD10EACS 1TB | NEC ND35-40A | Scythe Ultra Kaze | Noctua NF-P12

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Lilleputten
Såklart det är så, om man väljer att inte öka upplösningen på texten, ikonerna och allt annat. Fördelen med högre upplösning är bättre bildkvalité och bara för att det finns fler pixlar så förhindrar ju inte det från att man gör fonten lite större. Eller?

Visst kan man öka storlek på text och allt annat, där är det inga problem. Tittar man på en bild så kan man ju ha väldigt hög upplösning, men någongång så måste en bildkvalité vara så pass bra så att det inte går att göra den bättre, för att människans öga inte kan uppfatta skillnaden.

Citat:

Ursprungligen inskrivet av darkages
Svenssonuppfattningen som i vanligt förekommande och inte som i bög menar jag att nästan alla i min omkrets samt folk man träffar reagerar kraftigt på att jag sitter så nära en 50". Även folk som är lite halvintresserade av sånt här.

Håller med dig till fullo om att det är skillnad på dataskärm och bio system, man sitter då normalt närmre en datorskärm. Ögats uppfattnings förmåga för blir dock den samma Även en större bildyta har en sweetspot.

Angående avstånd och tum var det du som skrev att med 100" så skulle man förmodligen sitta så långt bort att det ändå blir som 30" för ögat... Och ergonomiska effekter av att sitta nära en stor bild. Du kanske överdrev men det var det jag svarade på.

När jag börjar prata bio så kanske det är upplösningar som vi vanliga kan få till gång till med fiberteknik

Så... Nej jag har ingen aning om max upplösning som kan nås men det fanns det några andra inslag i ditt inlägg som jag kunde svara på.

Kolla länken den är intressant.

Peace

Enligt din länk sitter du ca 1 meter för långt ifrån.
Jag tolkar sidan som att runt 30 grader view angle är bäst. (mellan 26 och 36)

------

Jag hittade information om det jag pratade om:

http://www.clarkvision.com/imagedetail/eye-resolution.html

Citat:

How many megapixels equivalent does the eye have?
Based on the above data for the resolution of the human eye, let's try a "small" example first. Consider a view in front of you that is 90 degrees by 90 degrees, like looking through an open window at a scene. The number of pixels would be
90 degrees * 60 arc-minutes/degree * 1/0.3 * 90 * 60 * 1/0.3 = 324,000,000 pixels (324 megapixels).
At any one moment, you actually do not perceive that many pixels, but your eye moves around the scene to see all the detail you want. But the human eye really sees a larger field of view, close to 180 degrees. Let's be conservative and use 120 degrees for the field of view. Then we would see
120 * 120 * 60 * 60 / (0.3 * 0.3) = 576 megapixels.

Vad säger ni, om 20 år har vi sexhundramegapixelmonitors som täcker 120 grader field of view?

Visa signatur

ηλί, ηλί, λαμά σαβαχθανί!?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Leedow
Visst kan man öka storlek på text och allt annat, där är det inga problem. Tittar man på en bild så kan man ju ha väldigt hög upplösning, men någongång så måste en bildkvalité vara så pass bra så att det inte går att göra den bättre, för att människans öga inte kan uppfatta skillnaden.

Enligt din länk sitter du ca 1 meter för långt ifrån.
Jag tolkar sidan som att runt 30 grader view angle är bäst. (mellan 26 och 36)

------

Jag hittade information om det jag pratade om:

http://www.clarkvision.com/imagedetail/eye-resolution.html

Vad säger ni, om 20 år har vi sexhundramegapixelmonitors som täcker 120 grader field of view?

Kanske framtiden har skärmar som har högre upplösning där du kollar och sänker res för andra delar av skärmen.
En dynamisk upplösning.

Visa signatur

System: Team Red

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Danjeel
Man kanske skulle vänta på kvantdatorer..

Det är nog inte så science fiction som man kan tro .... Intel forskar redan i fotonbaserade tranistorer til processorer med photonic/resistent/absorbant/reflecting/nonconducting processing

Permalänk
Citat:

Ursprungligen inskrivet av Dafydd
Men alltså... hur snabbt är koppartråd då? Hur snabba är anslutningarna inne i själva datorn? Vad är poängen med en sladd som kan överföra data snabbare än datorn kan internt? Eller kan den det? Lite siffror på diverse överföringshastigheter skulle uppskattas...

Tänk på det här viset: Hur mycket bandbredd tar alla dagens portar sammanlagt? Jag som har 1x Dual Link DVI och 2x Single Link DVI har redan där 15,84Gbit/sec. Sedan tillför vi t.ex. musens och tangentbordets USB till samma länk. Kanske joysticken och TrackIR också? Nån extern hårddisk kanske vill sitta nära skärmarna?

Så med andra ord; Dra en sladd till ett "centralt" ställe, i mitt fall nu då skärmarna, där den sedan kan dela ut sig. Jämnför med USB-hubben av idag, bara mycket snabbare.

Edit: Kanske jag flummar.

Visa signatur

That's just my opinion, I could be wrong...
> C2Q Q6700 > 8GB PC6400 > Gigabyte 965P-DQ6 > HD4870X2 & HD4650
> Lian Li PC-201B > Corsair HX620 > 10.46TB > HP LP3065 & 2x HP LP2065

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Leedow
Men det var ju just det jag skrev som inte gick. Om upplösningen blir större (utan att öka skärmytans fysiska storlek) så blir det till slut för smått för att läsa/se det som finns på skärmen.

Ja, det är ju möjligt. Men någonstans finns det en gräns. Jag har en 20" 1600x1200. Säg att det var en 20" 3200x2400. Kanske skulle jag se en skillnad där men går vi ett steg till så ser jag ingen skillnad, och jag tror inte att någon annan gör det heller. Så någonstans finns det en praktisk maxgräns för vad våra ögon kan se, utrymmet skärmen tar, avståndet från skärmen, osv.

Självklart skulle du märka skillnad på 1600*1200 och 3200*2400 om vi tänker samma skärmyta. Det finns ju i grunden inget negativt med högre upplösningar även om den fysiska formfaktorn behålls då allting kan anpassas. Text, ikoner och dylikt är ju hur enkelt som helst att anpassa, och allt eftersom användarstandarden höjs så anpassas ju mjukvaran. Tänker vi oss en vanlig Windows-miljö skulle det ju inte vara speciellt mycket problem att antingen anpassa storlek på ikoner, text och dylikt på egen hand eller låta ikoner och text anpassas automatiskt efter en inmatad upplösningsinställning.

Permalänk

Sen om ett par år så kommer småbarns pappan Göran 38år in och skäller ut att hans nya kabel till skärmen etc inte fungerar pga att han knäckt den

är inte helt fel men tror de måste lösa problem med att folk kan 'titta' in i lasern och bli blinda. säkert någon amerikan som ligger 6h efter som stämmer de för osäker hårdvara etc.

dock jag tror på tekniken men det kommer ta mycket längre tid och vi kommer få ha dubbla grännssnipp i många år innan det tar över.

Visa signatur

I am Extrazz.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Danjeel
Det var ingen som snackade om internetanslutningar..

Men mycket snack om att kopparn är död... eller syftar till det..

Avundsjuk?

Visa signatur

ATI TALIBAN.
Är inte någon expert, men jag har inte akne heller.
NEVER UNDERESTIMATE THE POWER OF STUPID PEOPLE IN LARGE GROUPS.. "Betala i förskott på blocket?" tråden.

Permalänk
Medlem

Det här gillar jag. Främst av den anledningen att det kommer underlätta när man vill ha dator på plats A och skärm/mu/tangentbord på plats B. Att idag sitta med repeaters, signalförstärkare och annat härv för rätt mycket pengar bara för att kunna få bort klumparna från skivbordet är lite sorgligt.

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk
Medlem
Citat:

Han hävdar att Displayport, ersättaren till dagens DVI, inte kommer att räcka till om 24–30 månader. Fiberoptik ses som den naturliga lösningen.

Vilken revolution väntas på skärmmarknaden närmaste åren som skulle rendera DisplayPort obrukbart?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Mr.Borka
Självklart skulle du märka skillnad på 1600*1200 och 3200*2400 om vi tänker samma skärmyta. Det finns ju i grunden inget negativt med högre upplösningar även om den fysiska formfaktorn behålls då allting kan anpassas. Text, ikoner och dylikt är ju hur enkelt som helst att anpassa, och allt eftersom användarstandarden höjs så anpassas ju mjukvaran. Tänker vi oss en vanlig Windows-miljö skulle det ju inte vara speciellt mycket problem att antingen anpassa storlek på ikoner, text och dylikt på egen hand eller låta ikoner och text anpassas automatiskt efter en inmatad upplösningsinställning.

Fast jag var inte ute efter "grunden". Jag menade när den gränsen går då människor inte ser skillnad mellan upplösningar. Människans öga inte kan uppfatta detaljskillnaden tillslut. Just 1600x1200 vs 3200x2400 på en 20" var bara ett exempel som inte riktigt stämmer, det behövs större upplösning ändå.

Visa signatur

ηλί, ηλί, λαμά σαβαχθανί!?

Permalänk

Vilka problem folk kommer ha med böjda fiber så det blir reflektioner och skitiga kontakter m.m

Det blir spännande och se hur detta kommer att fungera.

Visa signatur

Alienware 15R3, 7820HK, 16 GB DDR4 2667 MHz, 1080 Max-Q, 512 GB SSD + 1 TB 7200 RPM, 15.6" 120 Hz TN+WWA G-Sync, Killer 1550

Permalänk
Medlem

Ang. allt snack om högupplösta skärmar.
I dagsläget kan man väl inte annat än dräggla åt IBM T221
Första versionen (T220) kom 2001...
22" 3840×2400

Jämförelse med 30"
http://www.hardforum.com/showpost.php?p=1027231622&postcount=...
http://en.wikipedia.org/wiki/IBM_T220/T221_LCD_monitors

Röntgenskärmar brukar inte vara helt kassa de heller

Det finns ingen anledning till att högre upplösning på något sätt skulle göra saker mindre. Det är bara dagens OS som använder pixlar som mått överallt. Och anledningen till det är bara för att det inte är lönsamt att göra högupplösta skärmar. Det är bara vända på det, blir allting mindre på en bild tagen med en kamera 10 Mpix jämfört med en kamera på 5 Mpix?

Eftersom en LCD (och de flesta tekniker förutom CRTn) har fasta pixlar så har man problemet att en bild ofta inte är direkt skalbar med skärmens upplösning. Exempelvis dagens 30" skärmar som kör 2560x1600, ska man visa 1080p material så vore ju 1920x1080 t.o.m. bättre trotts att upplösningen är mycket lägre.
Blir dessutom lite annorlunda att räkna på ögats upplösning, då får man ju även räkna på avståndet till det man betraktar.

Citat:

Ursprungligen inskrivet av Hummus
Vilken revolution väntas på skärmmarknaden närmaste åren som skulle rendera DisplayPort obrukbart?

Undrar jag också, låter som skitsnack i sin renaste form. Och även displayport tillåter fiberkablar, även om det inte verkar finnas ute på marknaden ännu.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av illya_
Hur blir det med strömförsörjningen med sådana här gränssnitt? Drar de fiberoptik parallelt med något ledande, och i sådana fall vad dimentierar de allt för? Möss, eller strömtörstigare saker?

En av de possitiva sakerna med usb 3 är ju att den klarar att skicka mer ström, hoppas inte detta blir ett steg bakåt.

Dem kommer linda en strömförande ledare runt fibern för att lösa strömförsörjningen.

Och även Sony är med på tåget så detta kommer nog bli stort.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Hummus
Vilken revolution väntas på skärmmarknaden närmaste åren som skulle rendera DisplayPort obrukbart?

OLED? Bara en ren gissning... glöm inte att vi vill öka frekvensen till 120 hz iaf, för 3d och sånt trams som knappt existerar idag.

Visa signatur

Fractal R3, Corsair AX 850W, 2x Gigabyte 580 Windforce + Gigabyte 210, I7 2600k @ 4.6 GHz, Asus P8P67 PRO, Corsair 32GB 2133 MHz, Corsair H80, Intel 320 300GB, 5x2TB WD GP, 5xSchyte F-Flex 1600, 2xFractal 140mm Silent, 7xFanmate, 3xDell U3014, LG BH10LS30, Qpad 5k, Logitech Z-5500, Sennheiser 360, 2xDinovo Edge. Samsung 900X4C, 256GB SSD, 16 GB Ram.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Alexei
OLED? Bara en ren gissning... glöm inte att vi vill öka frekvensen till 120 hz iaf, för 3d och sånt trams som knappt existerar idag.

Med displayport kan du lätt driva en 1920x1200 skärm i 240 Hz...