Inlägg

Inlägg som MagWe har skrivit i forumet
Av MagWe
Skrivet av CTH:

Skulle programmerarna kunna ge grafikkort 1 uppdrag. Att hantera bakgrundstexturer och grafikkort 2 hantera rörliga saker (fiender t.ex.) ?

Det kan man absolut göra, och en fundamental del av de nya APIerna (mantle/dx12/gl.next/metal..) är att tillhandahålla synkoniseringsprimitiver för att man skall kunna styra upp något sådant. Eftersom uppgiften att balansera jobben mellan GPUer ligger på spelmotorutvecklaren så är den modellen betydligt svårare att hantera. En frame är inte klar innan sista jobbet är klart, så det gäller att ge alla GPUer lika mycket jobb, vilket så klart är lättast om alla får ungefär samma jobb.

En intressant aspekt av att köra olika jobb på olika GPUer är att alla jobb ju inte behöver uppdateras lika frekvent. T.ex texturer för reflektioner uppdateras ofta inte varje frame, så de kan puttra på i lite långsammare takt.

Dessutom tror jag inte att AMD syftade på DX12 när de pratade om Mantles efterföljare. AMD lämnade ju över Mantle-specen till Khronos som hanterar OpenGL, och de kommer visa sitt Mantle-baserade cross vendor API på GDC den 5:e Mars.
http://schedule.gdconf.com/session/glnext-the-future-of-high-...

Inte för att det spelar så stor roll, eftersom jag inte tror att DX12 kommer skilja sig på den punkten.

Av MagWe
Skrivet av Luminous:

Betyder detta att opengl i linux måste ske genom mesa, eller kan man hålla sig enbart till vad proprietära drivrutiner ger där?

Mesa är ett Open Source projekt som implementerar OpenGL APIet. (just nu hela version 3.3 samt mycket av funtionaliteten från 4.x) Alla relevanta och öppna OpenGL implementationer bygger på Mesa. Det är tekniskt sett inget krav, men att inte använda den stora och gratis kodbasen vore dumt. Proprietära implementationer av OpenGL har ingen koppling till mesa och är parallel-implementationer av samma API.

Av MagWe
Skrivet av Zarper:

Vad menas egentligen med "Enheten måste även ha ett bildförhållande på åtminstone 16:9..."? Ett bildförhållande är ett bildförhållande, finns inget mer eller mindre.

Det betyder att det även är OK med en tv som har t.ex. 2.35:1 förhållande (som en de flesta bio filmer). (16:9 = 1.777..:1)

Det innebär också att det verkar vara en lite luddig standard eftersom bara höjden verkar vara specad. Det samma gällde TVapparater som var certifierade som "HD Ready". De skulle klara minst 720 linjer, men det var inget som sa hur bred en linje skulle vara. 1x720 uppfyllde alltså kraven. 1024x720 var inte helt ovanligt i början även om man förväntar sig 1280x720.

Av MagWe
Skrivet av gollawolla:

Skulle man kunna kombinera allt? det skulle vara najs

En (teoretisk) holografisk display gör det.

Men paralax-effekten som demonsteras här går tex. utmärkt att kombinera med den stereoskopiska effekten du får av 3D-glasögon.

Jag är en av dom som inte alltid njuter av stereoskopisk "3D" utan ofta störs av det. Jag tror att det till viss del beror på att hjärnan får massa motstridig information. Höger och vänster öga ser olika bilder och därmed luras jag att tro att bilden har ett visst djup. Samtidigt så fokuserar linserna i mina ögon på bioduken/TVn/skärmen som är på ett helt annat djup för att jag skall få en skarp bild.

Av MagWe

Det här har ju ingenting med "3D-glasögon" att göra.

Först av allt: Vi kommer aldrig ha "riktiga" 3D displayer som visar volumetrisk data. Det närmsta vi kommer se är hologram. Våra ögon kan ändå inte upfatta 3D eftersom näthinnorna är platta och därmed 2D. Däremor kan vi upfatta djup och det gör vi med en rad olika effekter.

De i särklass viktigaste: Vi uppfattar *perspektiv* och objekt nära betraktaren täcker objekt längre bort. Dessa "3D-bilder" är sådant vi får från vanliga kameror och "3D-grafik".

Stereoseende: Höger och vänster öga uppfattar någor olika bilder. Detta är effekten som frambringas med "3D-glasögon" eller autostereoskopiska displayer.

Paralax: Det är detta som denna app utnytjar. 3Dobjektet förändras när betraktaren flyttar sin position i förhållande till objektet. (Har alltså ingenting med stereoskopi att göra)

Det finns fler effekter som t.ex. att vi fokuserar ögonen på olika djup. (och att objekt ur fokus blir suddiga etc) som påverkar vår 3Duppfattning.

Att stereoskopisk 3D skulle vara "riktig" 3d i någon mening är bara trams.

Av MagWe
Citat:

Ursprungligen inskrivet av AmiDonk
Häftig....Skulle vilja se Acer släppa något med ion, istället för typ släppa samma netbook i samma utförande och höja priset hela tiden....

Acer var så vitt jag vet först ut med en ION-baserad nettop. Acer Aspire Revo r3600. Den är nu även släppt i dual-core-utförande (330) i Taiwan.

Av MagWe
Citat:

Ursprungligen inskrivet av sykes90
operativsystemet är inte tänkt att stå på egna ben i vanliga datorer. Detta är ju ett sätt för google att få folkatt vänja sig vid deras operativsystem. När man vet vad man får är det nog fler som vågar lägga ut 5000 för en mobiltelefon.

ganska briljant marknadsföring.

Google har inget med den här pc portningen att göra. Dom bryr sig inte om Android på PCn.

Av MagWe
Citat:

Ursprungligen inskrivet av Leeloo
Varför inte 16:10?

Det blir troligtvis billigare att tillverka 16:9 paneler eftersom TV-paneler har det formatet. (economy of scale..)

Av MagWe

Många av TN-panelernas dåliga egenskaper kommer ifrån CCFL belysningen. T.ex. så brukar CCFL paneler bara täcka upp drygt hälften av NTSC-färgrymden, medan LED-paneler täcker in hela och lite till.

Av MagWe
Citat:

Ursprungligen inskrivet av heande
Jag skulle snarare säga, en sådan med dual core atom processor med 2gb ram och en bättre grafikkrets och en hdmi och en dvi ut. Det hade varit trevligt.

http://www.asus.com/news_show.aspx?id=13626

Samma single core-utförande som den gamla, men Radeon HD 3400 med HDMI.

Av MagWe

118+ kommentarer till en artikel som är baserad på felaktig information? Och än så länge är det bara Talavis som har reagerat.

Artikeln handlar om att Vista vinner mark på bekostnad av alternativa operativsystem vilket är helt fel!

Vista vinner mark på bekostnad av andra Windowsversioner medan andra operativsystem går frammåt! Posten för "övriga" OS innehåller bl.a. Win98, WinNT och WinMe. Dessa går back medan Linux har fördubblat sin marknadsandel sen Februari! Marknadsandelen var helt enkelt ganska liten från början (enl. Net Applications mätningar)

Mätningarna är baserade på web browser-statistik på ett antal utvalda siter.. den är alltså inte nödvändigtvis representativ för den verkliga OS-fördelningen, men trenderna är iaf mer tillförlitliga än absoluta andelar.

Av MagWe
Citat:

Ursprungligen inskrivet av uid313
Hade man bytt ut processor-arkitekturen från x86 till något mer modernare så skulle man kanske inte behöva GPGPU?

Det här tycks dyka upp på forum då och då. Ja, det finns renare instruktionsuppsättningar än den i x86, men vilken instruktionsuppsättning du har är ganska irellevant när det kommer till prestanda. Själva arkitekturen i dagens x86-processorer är i högsta grad modern, så vänta dig inga underverk för att man byter instruktionsuppsättning. Vänta dig snarare en försämmring innan alla kompilatorer etc. har hunnit ikapp alla år av förfining med den nuvarande instruktionsuppsättningen.

Intels kommande GPUer verkar bygga på en utökad varaint av just x86 ISAn. Deras Nahalem CPU kommer liksom AMDs Fusion CPU ha en integrerad GPU, troligtvis ganska low end, vilket kommer att spara pengar och ström i t.ex. laptops. Det är inte så långsökt att gissa att strax efter det kommer CPUer ha en fet GPU-del för att hantera parallellberäkningar och grafik och den diskreta GPUn vi har idag kommer vara ett minne blott. Vill du ha en historisk jämförelse kan du titta på den gamla matteprocessorn som man var tvungen att köpa till för att få flyttalsberäkningar en gång i tiden.

Citat:

Ursprungligen inskrivet av DataNusse
I praktiken betyder det att de nya/kommande nV GPU kan enkelt omvandlas till GPGPU bara genom mjukvara. Verkara vara mer flexibelt lösning än AMD's med att ge ut bara ren GPGPU.

Det är ingen skillnad från ATIs lösning. Deras FireStream-kort är en vanlig GPU som är konfigurerad för att prestera optimalt för GP-beräkningar. Du kan använda det för att spela spel på om du hellre vill det. GPGPU handlar inte om särskilld hårdvara. Det handlar om att använda vanlig grafikhårdvara till att göra icke-grafikrelaterade uppgifter.

Av MagWe
Citat:

Ursprungligen inskrivet av pytonOrm
men när ska penryn komma då ? eller har dom döpt den till yorksfield

Citat:

... Han sade att Harpertown skall lanseras i fjärde kvartalet detta år, detta kort efter lanseringen av processorerna som går under arbetsnamnen Wolfdale (2 kärnor) och Yorkfield (4 kärnor) som också bygger på 45-nanometers tillverkningsprocess.

45-nanometersarkitekturen heter Penryn och ersätter den tidigare Conroe-arkitekturen (som officiellt heter Core) som bygger på en 65-nanometersprocess...

Av MagWe
Citat:

Ursprungligen inskrivet av gusIII
En helt egen idé från microsoft :). Ser rätt lattjo ut.

http://cs.nyu.edu/~jhan/ftirtouch/
http://www.perceptivepixel.com/

visades innan både Surface och iPhone interfacet.. Jag säger absolut inte att varken Microsoft eller Apple är dumma för att dom jobbar med produkter baserade på konceptet. Men det där med en "helt egen idé" är relativt..

Av MagWe
Citat:

Ursprungligen inskrivet av aake
Raytracar de äntligen eller är det fortfarande ful-3D?

Raytracing är inte mer "korekt" 3d än den rendering man använder i spel. Olika renderingsalgoritmer har olika fördelar och nackdelar. (Ren raytracing ger t.ex. extremt vassa skuggor, men snygga reflektioner) För bästa resultat kombinerar man metoder.

Citat:

Ursprungligen inskrivet av xphaze
De har smällt på enorma texturer bara. Inte så imponerande i sammanhanget.

Ja, och själva kortet är bara en jävla massa transistorer..
Du får inte realistisk sub-surface scattering genom att bara fläska på mer texturer. Det krävs lite mer tankeverksamhet än så..

Av MagWe

Precis som antyddes tidigare är det troligtvis samma upplösning som deras 30"are dvs. 2560x1600 som avses..

DisplayPort är inte tänkt som en ersättare till HDMI.. HDMI skall ses som en digital ersättare till SCART inom hemelektronik och anledningen till att man inte använder samma standard i datorsammanhang har att göra med lincenskostnader. Tyvärr så kommer vi nog få se två standarder även i framtiden..

Av MagWe
Citat:

Ursprungligen inskrivet av snq
1920x1200 blir ju som att titta på tetris på en 26 tums skärm om man inte sitter flera meter ifrån skärmen.

Det beror lite på vad du har för smärttröskel. Den har samma pixelstorlek som på en vanlig 19"are..

Av MagWe

Rhino var inne på rätt spår, men vidareutvecklade inte så jag får ta mitt ansvar och rätta lite påståenden...

Apple bytte från ppc till x86 p.g.a. att ppc var för långsam! Dom nya intel-mac:arna är betydligt snabbare för att dom har snabbare processorer! Det beror i första hand på att intel gör bättre processorer än IBM, inte på att x86 har en bättre eller sämre ISA än ppc, men att påstå att x86 suger är ju rätt konstigt.

Din dator kommer inte bli snabbare om du byter till Cell! Faktum är att program som inte innehåller tunga data parallella beräkningar och dessutom är specialskrivna för Cell är betydligt långsammare på Cell är på en hyffsad intel cpu. (Jo, jag har gjort egna tester...) Exempel på dataparallella beräkningar är: fysik och partikel system för spel, grafikrendering och för all del att vika proteiner... Men det mesta man normalt sätt använder en dator till vinner inte på att köras på en cell.

GPUer är grymmt snabba på data paralella beräkningar, men är usla på generell kod. Traditionella CPUer är duktiga på generell kod, men kan bara utnyttja dataparallellism till en begränsad grad via SIMD instruktioner. (x86 har SSE, ppc har Altivec etc..) Cell processorn kan ses som ett mellanting. En generell CPU med ett antal parrallellberäkningsenheter.

Men även om vinsten med den typ av processor som Cell representerar är rätt begränsad i en vanlig pc så kommer även x86 att gå åt det hållet i framtiden. (utan att man behöver skrota x86-ISAn..) AMDs köp av ATI och Intels nysattsning på grafik är tydliga signaler på det. (Det har även ryktats om att intel kommer använda just x86-ISAn i framtida GPUer) Det finns alltså ingen anledning för oro att x86 skulle bli omsprunget av vare sig Cell eller annat...

Slutligen lite kommentare angående folding@home.. Även om den typen av beräkningar är väl lämpade för både Cell och GPUer så är det bara vissa delproblem som man använder Cell/GPU till. Vanliga datorer behövs fortfarande i projektet för att lösa dom lite trixigare beräkningarna.

Jämför en GPU med en dragracer. Jävligt snabb på raksträckor. Omöjlig att manövrera i trafik. I framtiden kommer vi få se sjysta sportbilar med grym kurvtagning, nitroboost på rakorna och som slår över till elmotorn vid stadstrafik

Av MagWe

För det första.. Det största delen av en cpu består av cache, inte av beräkningslogik, så en mindre instruktionsset skulle inte påverka storleken på processorn nämnvärt.. Kör man 64bitarskod så är många av 16/32bitars instruktionerna ogiltiga. T.ex. så används inte x87,MMX,3Dnow etc eftersom alla 64bits processorer stödjer SSE som kan göra allt dom gamla istruktionsseten klarar. Jag skulle gissa att alla opkoder är lika långa också. Eftersom det är den snabbaste arkitekturen just nu så kan den ju inte va helt sunkig eller hur? du får helt enkelt lita på all grabbarna på intel/AMD kan sina saker..

Av MagWe

Det är ju inte så att Carmack säger att det är något direkt *fel* på dx10, bara att vinsten är så pass marginell att det inte är direkt lönt att byta. (Att använda dx10 innebär även att man är låst till Vista..) Andra utvecklare säger samma sak, så det har inget med Carmacks preferens för OpenGL att göra. Tim Sweeny på Epic säger att dx10 är trevligt, men att det inte kommer låta dom göra något som dom inte kan göra med dx9. Skillnaden var mycket större mellan dx8 och dx9 än mellan dx9 och dx10.