Inlägg

Inlägg som Utgardaloki har skrivit i forumet
Av Utgardaloki
Skrivet av micke7406:

Skakar tv´n ner från bänken så är det nog tillräckligt för att man ska känna den.
Hur det upplevs beror helt o hållet på hur grunden huset ståt på är.

Om en TV rasslar av bänken vid en 2,8 så vete fanken vad huset var förankrat till. Berggrunden ger uppenbarligen den starkaste överföringen av energin så starkare kraft än förankring vid det är svårt att få såvida det inte uppstår någon form av resonans i jordskorpan där vågorna "fastnar" eller liknande. Så det kanske var det som hände(?).
Jag bodde hur som helst under några år i Islands mest jordskalvsdrabbade område där 3:or hände mycket ofta. Det är ett otroligt aktivt område och särskilt vid den tiden eftersom det stora söderlandsskalvet var i antågande så spänningarna var mycket stora i skorpan. Mitt hus stod på mjukare grund men en kompis hus var förankrat vid berggrunden och vid ett tillfälle fick han fånga TVn för den stöttes av TV-bänken. Takkronan, böcker och en och annan tavla rasade ner. Men det var också en 5:a på richter.

Jag tycker det är kul med jordskalv så det är därför jag undrar Intressant är det hur som helst.

Av Utgardaloki
Skrivet av Flexiblus:

Har upplevt två jordbävningar på 5 och 5.7 på richterskalan. Skratar åt folk som är vettskrämda pga detta. Säkert att inte tanten eller grannen snarkar? Hahahahahhaa :!!!!!!

Det beror nog på att du är mer van. Det är ju som sagt inte så vanligt med skalv i Skandinavien så inte så underligt om folk reagerar som de gör om man inte har upplevt det.

Själv tyckte jag det var intressant att folk verkar ha tyckt att det skakade på "rätt bra". Men jag misstänker att det har att göra med att det är så ovanligt. Vid 2,8 är det som sagt oftast ljudet som folk brukar reagera på eftersom skakningarna överlag är så svaga att de knappt känns vid den magnituden. Någon som lyssnar på musik vid hyffsad ljudnivå brukar ofta helt missa sådana skalv.

Av Utgardaloki

2,8 på richter? Skakade det rejält?
Var det inte snarare ljudet som var överväldigande?

Av Utgardaloki
Skrivet av Mr. Vico:

Inom västvärlden är nog Sverige ett unikt fall där man har separerat tv-avgiften från skatten.. de borde lära sig från sina nordiska kamrater, se på Finland t.ex. inbakat i skatten.

Ja med den logiken borde jag även betala bilskatt... för många har ju bil liksom och anses ju därtill rätt nödvändigt. Men själv har jag ingen bil... så varför borde jag betala bilskatt?
Varför i hela friden skall jag betala för något som jag varken vill ha eller ens ser någon nytta med? Är public service tv nödvändig eller är den det inte? Det är frågan över alla andra frågor.
Lära från våra nordiska kamrater? Va?? Om det funkar så i syskonländerna borde de väl om något lära av denna svenska dom. Inte tvärt om.

Av Utgardaloki
Skrivet av morxy49:

intressant finns det några ytterligare bevis eller exempel på detta? en video eller nåt?
skulle vilja utforska det där lite

Naj, någon video har jag inte. Men tro mig. Jag började leta när du bad om det. Vet inte på vilka ord jag skall leta
Du verkar ju nästan litet ironisk så jag vet inte exakt vad du åsyftar eller är ute efter

Som framgått är min terminologi inom ämnet inte den bästa eftersom jag till största delen är självlärd. Men du får ta det för vad det är. Jag ber om ursäkt om jag är övertydlig(eller otydlig) och går in på saker som du redan vet.

Det finns en princip som säger att ett enskilt öga aldrig kan ta reda på avståndet till en betraktad ljuskälla eftersom ögat inte kan sända ut information. Det kan bara ta emot. Detta innebär i sin tur att det som ett enskilt öga tar emot ALLTID måste bli en två-dimensionell projicering på näthinnan oavsett om ljuskällan själv har två-dimensionell eller tredimensionell utsträckning. Så vare sig man tittar på en scen som utspelar sig på en platt två-dimensionell skärm eller det samma från verkliga livet, en verklig 3D-miljö, så har ögat ingen aning om vilket.

Hjärnan som skall tolka bilden har däremot en större inblick i vad som pågår. Den vet att om ett öga rör sig närmare en ljuskälla så uppstår till slut ett brytningsfel i ansamlingen av ljuset vilket leder till att projiceringen på näthinnan blir suddig. För att avhjälpa detta så spänner hjärnan ut ögats lins och gör den därmed mer konkav/negativ. Detta är väldigt ansträngande för ögat eftersom dess avslappnade linsläge är en så konvex/positiv lins som möjligt. När man exempelvis dagdrömmer så låter hjärnan linsen slappna av och allt framstår suddigt ju närmare ögonen det befinner sig. Men så där 5 till 10 meter bort så börjar allt att framstå i fokus hela vägen bort i det oändliga.

Om jag spelar 20-25 centimeter från skärmen i 2D så fastnar hjärnans fokus självmant på "skärmytan" i och med att hjärnan alltid försöker hitta fokus efter bästa förmåga. I detta fall så är det just här som dels brytningspunkten faller sig naturlig för hjärnan (det är där den uppnår som mest skärpa) dels säger hjärnans djuptolkning att det är där scenen befinner sig... på en platt projicering strax till höger och vänster om vardera vänster och höger öga. En sådan scen är fysiskt tung för ögonen. Dels måste linsen fokusera på något bara 20-25 centimeter bort vilket leder till att linsen måste hållas rejält spänd av muskler inuti ögat hela tiden, dels så måste man skela rätt kraftigt eftersom fokuseringspunkten befinner sig rätt i mellan betraktarens ögon. Helt tvärt om gäller vid längre avstånd då ögonen upplever att objektet befinner sig framför bådadera och linsen kan slappna av för att uppnå ett ljussamlande fokus. Här krävs alltså så gott som ingen skelning och linsen kan därtill förbli avslappnad.

Denna sistnämnda situation är precis det som händer när man slår på 3D (såvida vi inte talar om negativ 3D för då måste ögonen fokusera på sådant som befinner sig "utanför" skärmen alltså inne i rummet vilket t.o.m. är visuellt tyngre än om man fokuserar på 2D-skärmen själv). Hur som helst. Positiv 3D är det som tas upp här vilket är det som de flesta spel använder. Fokuseringspunkten d.v.s. den punkt där hjärnan upplever som mest skärpa kan skjutas många många meter "förbi" bilden. Enda sättet för hjärnan att uppnå fokus här är dels att tala om för ögonen att sluta skela så förbålt dels att sluta spänna ut linsen så hårt. Detta för att bilden i datorn när 3D slås på separeras i två nya bilder baserade på hur en mänsklig hjärna bestämmer avstånd i verkligheten: Vid stor spatial/vinkelmässig/rumsmässig skillnad mellan komponenter i bilderna upplevs dessa komponenter som mycket nära betraktaren (= skela och spänna lins). Tvärtemot vid liten eller ingen spatial skillnad mellan komponenter i bilderna så måste de befinna sig på mellanstort till stort avstånd (= slappna av och slappna av... typiskt 3D-spelande).
Så för att bedöma det spatiala förhållandet måste ögonen anstränga sig allt mer ju närmare något befinner sig för att hålla jämna steg dels vad gäller riktningsmässig fokus (graden av skelning) dels ljussamlande fokus (linsutspännande).
Och hjärnans fokus- och djupfunktion har ingen aning om om denna djupkänsla bygger på en verklig scen eller en fullkomlig synvilla - ögonen kan som sagt inte mäta avstånd till en ljuskälla. Och hjärnan kan bara tolka vad vart öga alltid ser... 2D.

Ett minus dock vad gäller datorskapade bilder är att en dator är begränsad till en ganska låg matris av enskilda informationsbärare. Skärmens upplösning är m.a.o. fortfarande betydligt lägre än upplösningen hos ett friskt mänskligt öga, särskilt när man kör upp näsan i den. Man tittar hur som helst inte på bildpunkterna i 3D - hela poängen med 3D är att titta långt längre fram än den plats där skärmen och bildpunkterna befinner sig. Annars kan hjärnan inte uppnå en uppfattning av 3D-djup då denna hjärnfunktion alltså dels bygger på mekaniska inriktningar av ögonen som måste sammanfalla med vad vi är vana vid, dels linsmekaniska rörelser som återigen måste sammanfalla med mänsklig vana. Detta bygger på synkroniserad fokusering mellan de två aspekterna, antingen nära eller långt bort. Och då normalt sett bortanför djupet och avståndet till en skärm på några decimeters avstånd. För så fungerar det i verkligheten. Få saker utspelar sig 20-25 centimeter bort från en människas tryne. Bryt mot allt detta och det blir pannkaka och obehag av alltihop. Dessa hjärnfunktioner utgör en vansinnigt fininställd funktion som hjärnan utvecklar under spädbarnsåldern hela vägen upp till omkring 8 års ålder och bryter man mot reglerna som hjärnan har skapat sig under denna period så blir man lätt åksjuk eller liknande (och här tycks ju en del ha problem minsann).

Hur som helst. De enskilda punkterna hamnar ur fokus på en datorskärm även fast det man tittar på i full fokus faktiskt byggs upp av dessa urfokuserade punkter. Detta "fungerar" så länge manifesteringen framträder i ett inlärt samspel mellan skelande och linsmässig fokus. Men på en "lågupplöst" datorskärm leder detta till artefakter även då bilden är "perfekt" (när man sitter "för" nära). Synbilden får så att säga ett gäng "interdimensionella" och underliga suddiga fyrkanter i sig. Detta är alla de på tok för nära och framstående bildpunkterna. Men de är tack och lov ur fokus eftersom man tittar "förbi" dem. Men litet störande är det hur som helst. Dels för min egen inlevelse, dels för mångas kapacitet att överhuvudtaget hitta fokus eftersom de har en tendens att fastna med fokus på just bildpunkterna själva eftersom de dels är medvetna om skärmens position, dels ser de enskilda punkterna snarare än "manifestationen" i och med att deras fokus har en benägenhet att fastna på just bildpunkterna.

Men om man vänjer sig vid att inte fokusera på punkterna och samtidigt "lyckas "gå så nära skärmen att bårderna/bildprojitionen försvinner ur synvinkeln så är det fanimej häftigt. Då står man synmässigt helt och hållet i spelet. Inga synliga kanter och hjärnan skriker att nu är du mitt i denna värld. Heltäckande POV får jag. Bredare än Oculus Rift. Sjukt häftigt. Men inte för alla. Och de egna kroppsrörelserna stämmer inte med vad som händer på skärmen och man får inte röra huvudet. Min bror fick springa ut på balkongen efter tio minuters ihärdigt härjande över att det där var bland det häftigaste han hade sett. Men han vart så illamående att han höll på att spy under en kvart.

Oculus Rift är vad jag hoppas på. Då kan jag ju även röra på huvudet. Och därtill så har Rift en renderings- och linsuppbyggnad som gör att centralgropen (Fovea centralis) förses med rejält hög upplösning och detaljrikedom sett till resten av projiceringsytan. Precis som ögat självt funkar. Längtar som attan.

Om du fortfarande tycker att det jag säger framstår som rappakalja så får du väl fråga vad jag håller på med. I annat fall så ha det.

Av Utgardaloki
Skrivet av morxy49:

Är du säker på detta? Källa?
Du menar alltså att om jag stirrar in i en bildskärm som visar ett objekt som ska föreställa vara 10m bort så fokuserar alltså ögonen på 10m + ditt avstånd till skärmen?

Visste att speglar fungerade så, men bildskärmar. nja, jag väldigt tveksam på det.

Exempel på ett väldigt bra motargument: Jag har kameran på ett fast avstånd ifrån min skärm, låt säga 1m. Kameran är fokuserad på ett objekt på skärmen. om jag nu visualiserar att objektet på bildskärmen rör sig bortåt, inte fan måste jag fokusera kameralinsen igen.

Det fungerar faktiskt så.
En kamera kan man inte jämföra med. Bländare och lins motsvarar visserligen pupil och lins i ögat men det är alltså vad man lägger fokus på som i huvudsak avgör om något är ansträngande eller ej. I 3D lägger man inte fokus på "hinnan" som projicerar bilden utan på det upplevda avståndet till det man fukuserar på.
Om jag sticker nosen upp i skärmen när jag skall spela, si sådär 20-25 cm ifrån, så tar det inte lång tid innan ögonen faller ur. Om jag däremot slår i gång 3D på samma skärm och samma avstånd så "försvinner" skärmen. Det resulterar i en relativt otydligt pixlig bild som är ur fokus medan det som pixlarna beskriver, alltså det jag fokuserar på, framstår långt tydligare och åtminstone för mig på inget sätt ansträngande. Jag spelar faktiskt rätt ofta så i just 3D men stört omöjligt i 2D som sagt.

Av Utgardaloki

Kör du nvidia surround på tre olika skärmar? Är inte säker men måste inte skärmarna vara av exakt samma typ?

Kör själv med nvidia surround och enda gången jag har problem är vid tillfällen när infinity också har det.

Av Utgardaloki

Om de byter ut 1280x800-skärmen mot en 1080-baserad och på ett bra sätt lyckas samla bildfokuseringen till alla viktiga bildpunkter (på samma sätt som hos ögonens fokus - ju mer i synens mitt dess flera detaljer) så skulle jag vara beredd att offra mina tre 3D-skärmar sicken dag som helst för den upplevelse som Oculus Riftut lovar. Jag har fortfarande inte provat detta men om det fungerar som jag har föreställt mig så slår det allt. Det är ju förbannat krångligt att binda tre 6-kilos-skärmar på nacken :). Därtill fokuserar de fel genom att sprida detaljerna jämnt. Ögonen tvärtemot lägger krutet på mitten medan pereferin knappt får något alls.

Om någon vet, är det så Oculus fungerar, alltså genom att lägga sin rätt låga upplösning samlad till mitten med hjälp av "fiskögerendering" och därefter "sprida ut det" och räta ut det med hjälp av optik..?

Jonas och Emil har ju provat. Om ni läser detta... hur såg det ut när man tittade åt sidorna - var det suddigare där?

Och har någon hört något nytt om en 1080p-skärm i konsumenutgåvan av Oculus Rift? Har inte läst hela tråden så om det nämns där så ursäkta men jag har litet bråttom.

Av Utgardaloki
Skrivet av BlueEyes:

Nu tycker jag väl inte att du ska ta ton när du inte ens förstår vad det handlar om så knip gärna trut och ta reda på vad som gäller innan du yttrar dig.

Jag låser inte upp ett dugg trots att det finns tillgängligt, jag spelar mig upp i rank och låser upp genom att kämpa.
Där har du svar.

Och detta är ditt svar på det jag anmärkte på? ARG... men inget svar. Att tala ner till folk eller göra litet av dem leder väl inte till mycket mer än just det...

Av Utgardaloki
Skrivet av BlueEyes:

Tröttsamt resonemang du för... och låter som en snålis.

Men det är inte första gången jag ser det korkade resonemanget.

Vill du inte betala så låt bli.

Låt oss som inser fördelarna och vill betala för en bra produkt för att få mer värde göra så.

Trött på alla snålisar som inte förstår att marknaden och sättet att sälja spel och tillhörande innehåll förändras.
Ni vill ha allt gratis.

Ah men nu får du väl ge dig.

"inser fördelarna/(andras) korkade resonemang/ni vill ha allt gratis, ni är snåla".
Förbannat korkade ordval måste jag säga. Inte minst för att mycket av det du sade är ren rapparkalja.

Precis som många andra så gillar jag inte heller premiumpaketet eftersom det rent spelmässigt delar upp spelarna mellan dem som har det och dem som inte. Extra vapen, extra utrustning, extra ditten och datten. Jag vet inte om jag är korkad men jag är ju en av dem som tycker man skall spela för att låsa upp grejer och samtidigt inte ge andra spelmässiga fördelar bara för att de valt att köpa en "finare" utgåva. Extramaterial och sånt, visst. Men spelmässigt? Vad fan är det frågan om? Den gamla goda tiden då man fick kämpa arslet av sig i BF2 för att låsa upp en enda grej var tider det. Då kändes det som man verkligen hade åstadkommit något och det var i mångt och mycket just upplåsningarna som gjorde BF2 så jäkla kul för mig. Men mycket av det byggde ju på att det just var lika för alla.

Nu i BF3 så fullkomligen spottar man ju fram nya uppgraderingar till gubben och vill man inte vänta den halvtimme det tar att låsa upp nästa grej så kan man ju alltid plocka fram plånboken och köpa skiten direkt genom Origin i stället. Och vill man att gubben skall få ännu en liten skjuts eller fördel så kan man köpa premium. Nä men va kul! Verkligen. Jävla idioti, men visst, det är så det är nu men det gör ju inte saken roligare. Det börjar bli som med idrotten. Pengarna förstör snarare än att förbättra. Tycker jag alltså.

Men det är klart att du kanske tycker något annat och det får du väl göra om du vill.

Av Utgardaloki

När en spelutvecklare sätter sig ner för att börja planera för hur krävande ett nytt spel skall tillåtas vara för PC-hårdvaran så sätts inte ribban vid vad x79, 16GB minne och Titan klarar av (överraskning va). Lägsta referens som spelet utgår ifrån är otroligt mycket lägre. Det enda en stark PC får som bonus är att man kan höja utseendet litet här och där men grunden för spelbarheten är fortfarande den samma som för långt svagare datorer.

Kan ni tänka er hur kralligt ett spel skulle bli om man sade åt en utvecklare att helt anpassa, optimera och pressa allt till sitt yttersta i världens starkast tänkbara PC? Alltså programmera och fullt optimera för dessa specifika komponenter. Detta skulle även innebära att mellanprogram kunde tas bort och allt programeras för just dessa komponenter direkt. Andra datorer skulle alltså inte kunna köra spelet dels för att de helt enkelt hade för litet kraft, dels för att de inte skulle kunna läsa koden. Gjorde man så skulle spelet bli fullkomligt legendariskt för sin tid helt baserat på det tekniska. Detta scenario är verklighet på konsolerna men helt omöjligt att uppnå inom PC-världen. Ändå är det just detta förhållande alla utgår ifrån när de säger att "PS4 har ju bara den och den komponenten men min PC däremot...".

Om PS4 inte har en referensribba som ligger högre än den för dagens PC-miljö så skulle jag bli förvånad.

Av Utgardaloki
Skrivet av Ratatosk:

Ja så är det nog, vi får vänta på någon form av ny PPU innan vi kan få tillbaka den funktionalitet Ageia hade. [...]Just stela kroppar vore väldigt trevligt om det blev lite fart på det

Ageias PPU har precis samma problem. PPUn (liksom GPGPUerna) är överlägsna på partikelfysik (så som partiklar, vätska, tyg). Men den ger inte mer än marginellt bättre prestanda vad gäller stelkroppsfysik i jämförelse med en hyffsad CPU. Det samma gäller GPGPUerna men åtminstone vad gäller PhysX och OpenCL så finns det några projekt just nu som ser väldigt lovande ut vad gäller stelkroppsfysik med många gånger bättre prestanda och snabbare resultat än CPUer klarar av.

Vi får väl se hur det blir.

Av Utgardaloki
Skrivet av Zotamedu:

1, Quicksync är också väldigt snabb för att den körs på hårdvara som är designad för att göra just det. Intel har byggt in trasnistorer som enbart ska koda och avkoda h.264 och inget annat. Därför går det väldigt fort. Kör då samma manöver genom CUDA så är det mer generella beräkningar. Nvidia har väl en del för att hårdvaruavkoda h.264 om jag inte minns helt fel men inget för att koda det.

Jo du har rätt. Det där vart rätt klantigt ordat av mig p.g.a. att Quick Sync verkligen körs på en dedikerad hårdvara för videokodning.
Mitt syfte med argumentet var i slutänden att påvisa att latenser kan ha en ganska stor inverkan på effektiviteten. Jag borde ha valt ett annat exempel men exemplen är få och ganska svåra att påvisa. Man kan ju exempelvis inte praktiskt bevisa att en kepler-GPU skulle kunna få mer utfört per tidsenhet om den delade kiselplatta med en Intel 3770k. Det går bara att till viss del påvisa "på pappret" av uppenbara skäl. AMD APUer så som Trinity och liknande kan man heller inte titta på eftersom de bland annat är på tok för svältfödda på bandbredd och därmed inte har någon direkt motsvarighet i de diskreta grafikkorten.

Skrivet av Zotamedu:

2, PS4 kommer inte kunna köra PhysX på GPU eftersom Nvidia inte tillåter det. Läs deras egna pressmeddelande där det tydligt står att PS4 kommer få stöd för PhysX (no shit eftersom de redan har en fungerande version för x86) och att det går att "hårdvaruaccelerera" med grafikkort från Nvidia.

Det kanske stämmer. Men samtidigt tycks Nvidia vara fullt villigt att låta vem som helst och vad som helst köra PhysX mot licens, även andra GPUer än Nvidias.
Men det är hur som helst inte säkert att det behövs. APEX kanske redan körs snabbt nog på x86 i de applikationer som de har tänkt sig. x86 har ju därtill stöd för SSE vilket kan höja fysikuträkningar rejält. Stöd för SSE har hittills saknats på x86 (PC). I och med konsolerna så kanske de börjar utnyttja det.

Skrivet av Zotamedu:

Sen verkar du ha missat lite hur det fungerar. Nvidia har ingen dedikerad fysikhårdvara som en fysikprocessor. Nvidia skrev om PhysX när de köpte den så att delar av den går att köra genom CUDA som ju är deras egna språk gör att köra mer generell kod på GPU. Det är alltså inga som helst problem att köra ny kod på äldre grafikkort så länge de stödjer CUDA vilket de började göra i 8000-serien. Just CUDA är viktigt i sammanhanget för det är det som gör det helt omöjligt att köra PHysX på grafikkortet i PS4 för då skulle Nvidia behöva släppa in AMD i deras CUDA-koncept vilket inte kommer hända.

Här missuppfattade du mig nog för det är just detta jag menar. Jag vet inte om jag missuppfattar dig någonstans? Hur som helst.

Att det däremot skulle vara "omöjligt" att köra PhysX på AMD-GPUer p.g.a. att programmet körs i Cuda på Nvidia-kort kan jag inte tänka mig. Nvidia behöver inte ge AMD rättigheter att få använda Cuda för att på så sätt kunna använda PhysX. De behöver bara skriva om en del rutiner i PhysX för att det skall köras bra på AMD-GPUer. Kodmässigt står redan Cuda (och PhysX) konkurrenterna nära (så som DirectCompute, OpenCL) gällande många rutiner. PhysX har ju därtill redan varit på väg att översättas till AMD-GPUer på amatörnivå men Nvidia satte stopp.

Det handlar nog snarare om en licensfråga än något annat gällande just PhysX.

Av Utgardaloki
Skrivet av Ali3nPredator:

Men kanske kommer X86 processorn, att ha en mer utbyggd grafik-chip funktion för att hjälpa till med beräkningarna på antingen PhysX eller Havok FX?

/ AP

Menar du på PS4 då?
Vad gäller PS4 så långt de nu har visat specen (handlar ju mest om blockdiagram hittills) så ser huvudsaklig grafik- och fysikkraft ut att uteslutande komma från GPGPUn (där utförs de huvudsakliga beräkningarna gällande sådant).

Men en annan del av styrkan i PS4-plattformen som jag nämnt tidigare kommer av att både CPUn och GPGPUn befinner sig på samma kiselplatta. Detta ger inte bara enorm bandbredd mellan de två processorerna. Det ger även enormt låga väntetider (latenser) som är jätteviktigt i de fall då slutresultatet är summan av massa bollande fram och tillbaka mellan CPU och GPGPU.
På PC blir detta bollande rätt ineffektivt eftersom processorerna sitter och väntar på varandras resultat vid jämna mellanrum (PCIe är inte särskilt snabbt sett till de enskilda processorerna som utnyttjar det). Ett exempel är Cuda-accelererad videouträkning (encoding) som inte når lika snabba resultat som Intel Quick Sync som alltså körs på Intels integrerade grafikprocessorer. Nvidia-GPUer krossar kraften i Intels integrerade grafik men lyckas samtidigt inte mäta sig med hastigheten hos Quick Sync där Intels långt vekare grafikprocessor befinner sig precis vid sidan av själva CPUn och snabb kommunikation dem emellan är viktig. Detta innebär att "veka" Quick Sync i slutänden blir ungefär dubbelt så snabbt som Nvidias Cuda, även fast Nvidia-GPUn är hästlängder kraftigare än processorn som huvudsakligen räknar i Quick Sync. Quick Sync är en optimerad arkitektur med givna förutsättningar (till skillnad mot CPU+Nvidia-GPU). Det samma gäller konsoler. De har inte lika kraftiga komponenter som de starkaste PC-burkarna men de har så gott som alltid en förbaskat optimerad arkitektur.

Så jag tror knappast att PS4-CPUn är ämnad att ta hand om så mycket i grafik- och fysikväg. Den har ju en mycket kraftigare komponent för sånt precis vid sidan av. PS4 är som sagt en låst standard så det finns ingen anledning att lägga tunga uträkningar på "fel" komponent. Vad gäller "cross-plattform" däremot så kan det naturligtvis förekomma kompromisser vad gäller arkitekturmässigt utnyttjande på varje plattform. Men jag tvivlar på att Sony kommer lägga några pengar och extra transistorer på att tillgodose tillkortakommanden gällande cross-plattform.

För att summera: PhysX och Havok FX är programmerade att köras på så många trådar som möjligt. De körs då som ren mjukvara, inte hårdvara. När en komponent sägs vara stark gällande fysikuträkningar så menar man alltså att komponenten kan hantera väldigt många trådar från mjukvara väldigt snabbt. Detta är vad GPGPUer är bäst på. Men det finns ingen dedikerad krets för fysik (till skillnad mot Ageias PPU). Det finns bara så och så mycket potential gällande hur många mattematiska tal de hinner med per sekund. En CPU är bra på förgreningar och valmöjligheter men dålig på raka uträkningar av enorma mängder mattematik per sekund. En GPGPU är tvärtom dålig på förgreningar men enorm i styrkan på att beräkna så många enkla och raka mattematiska tal som möjligt per sekund (så som exempelvis att räkna ut färgen på bildpunkter eller koordinater i fysik).

Det verkar som om många här i tråden fortfarande tror att det finns så kallad hårdvaruaccelererad fysik på dagens spelmarknad ("körs på hårdvara/dedikerad krets" o.s.v.). Men jag säger fortfarande att något sådant finns inte (så vida man inte kör på Ageias PPU vill säga men detta innebär inte att man numer får mer kraft jämfört med en kraftig GPGPU. GPGPUerna är faktiskt vansinniga i kraften de kan lägga ner på fysik och spöar så gott som allt annat).
Jag tänker då först och främst på Nvidias PhysX som enligt Nvidia (deras PR-avdelning) är "hårdvaruaccelererad" när det körs på Nvidia-GPUer men "mjukvaruaccelererad" när det körs på CPU eller annan icke-Nvidia-hårdvara. Men detta stämmer inte. Kraften man får från PhysX när man kör det genom en Nvidia-GPU kommer av att GPUn kan hantera väldigt många trådar. Trådar som kör allt i mjukvara, inte hårdvara. Att AMD inte kan köra PhysX beror bara på att AMD inte vill betala Nvidia licensavgift för att få köra PhysX på sina egna GPUer. Så AMD är blockerat på kodmässig väg, inte hårdvarumässig (Radeon har mycket mer gemensamt med Nvidia-GPUer än exempelvis en CPU som ju kan/får köra PhysX). AMDs kort saknar med andra ord ingen "PhysX-hårdvara" för någon sådan finns över huvud taget inte längre (sedan Ageias PPU slutade tillverkas). De saknar bara rättigheter. PhysX är bara en API. Ett program och inte en hårdvara med kodade rutiner menade att köras på generella beräkningstrådar alltså CPU eller GPGPU. Koden kan alltså köras på så gott som vad som helst (mjukvara) och ju mer generell uträkningskraft dess kraftigare resultat.

Ett sista försök för att påvisa att all fysik (så som Nvidia PhysX) numer körs i mjukvara och därmed kan köras på så gott som allt (där endast den generella uträkningskraften på var processor begränsar resultatet snarare än någon "dedikerad hårdvara"):...

Enligt Nvidia (återigen... PR-avdelningen) så körs PhysX "i hårdvara" så länge man har ett Geforce 8xxx (G80) eller senare kort. Geforce 8xxx-serien introducerades 8:e november 2006. PhysX köptes upp av Nvidia i februari 2008.
Hur kan ett Nvidia-grafikkort introducerat 2006 innehålla "hårdvaruteknologi" från en teknologi introducerad på Nvidia-kort först 2008?..

Det går bara fortare att beräkna koden på en GPGPU eftersom den är otroligt mycket snabbare på att köra dessa mjukvaruberäkningar än en CPU.

Av Utgardaloki
Skrivet av Jekean:

Det de visade i presentationen..... Eller kör det också DirectCompute/HW?

Det demot körs på GPGPUn. Havok-mjukvaran körs alltså på beräkningskärnorna på AMD-GPGPUn. En CPU (x86) har inte en chans att hinna med det där i realtid.
CPUn är bara med och "dirigerar litet" men den "spelar inga instrument". Alltså likt vad en PC gör när CPUn talar om för Nvidia-GPUn att köra alla generella uträkningar i stället för att CPUn skall ta hand om det (PhysX kan ju även köras på CPU men då anpassas uträkningarna automatiskt till en snällare nivå lämpad för en CPU).

DirectCompute är ett API menat att köra "general purpose-uträkningar" på en GPGPU. DirectCompute är en del av Microsofts DirectX-serie av APIer och om Sony får använda det har jag ingen aning om. Om havok-programmet som demonstreras här körs genom DirectCompute, OpenCL eller liknande eller står på egna ben genom exempelvis Havok FX vet jag inte heller.

DirectCompute, OpenCL, PhysX och Havok FX gör alla samma sak och är direkta konkurrenter till varandra vad gäller GPGPU-drivna fysikuträkningar. De är APIer menade att slussa (anpassad) mjukvara till GPGPUer i stället för till CPUer.

Av Utgardaloki
Skrivet av Jekean:

PS4 kommer med 8 kärnor Jaguar CPU, yes?

Oavsett hur snabbt dessa kärnor kommer köras så är jag ganska säker på att det räcker med utökat multicore stöd i PhysX motorn för att det skall ha någon positiv inverkan på upplevelsen.

Havok visar dock med sitt demo att GPU-accelererad fysikmotor, vid korrekt användning av flera kärnor, egentligen är total BS

Vilket Havok-demo menar du?

Av Utgardaloki
Skrivet av Ant3:

Det hindrar ju inte nVidia att tillverka ett chip tillämpat enbart för PS4.

Som jag sade tidigare så finns ingen chip-teknologi numer ämnad endast för fysik i spel. Man använder uteslutande kraften i generella processorer så som CPU eller GPGPU. Man använder alltså endast mjukvara (vilket i själva verket var hur det kördes på Ageias PPU också med den skillnaden att PPUn var bättre anpassad till att köra NovodeX-koden snabbt och effektivt). Må hända har Nvidia anpassat en del av kärnorna till att köra fysik aningen mer effektivt. Den grundläggande uppbyggnaden hos en GPGPU lämpar sig hur som helst inte till att köra fysik på bästa sätt vad gäller nuvarande arkitektur.

GPGPU ger däremot betydligt mer kraft än en CPU gällande fysik eftersom en GPGPU har enorm beräkningskraft till att köra exempelvis PhysX genom mjukvara. Ren mjukvara (utan renodlad hårdvaruanpassning uppbyggnadsmässigt sett) är alltså normen sedan Ageias PPU slutade produceras. Gäller alltså även Nvidias GPUer (även fast Nvidia kallar Nvidia-körd PhysX för "hårdvaruaccelererad" medan CPU "mjukvaruaccelererad" - båda varianter kör en form av mjukvara i form av delar av programmet PhysX. Så gott det går. GPGPUerna är snabbare än CPUerna. Någon grundläggande anpassning för fysikuträkningar finns inte på Nvidias GPGPUer mig veterligen utan använder bara Cuda-baserade program baserade på främst Cuda C/C++).

Om PS4 är kraftig vad gäller PhysX så är det uteslutande på basis av dess ganska kraftfulla GPGPU (om CPUn används blir resultatet mer begränsat). Och det spelar ingen roll att dess GPU är av AMD-sort. Allt körs genom anpassad mjukvara oavsett.

Av Utgardaloki
Skrivet av GoldMasterGollum303:

Själv gillar jag HAVOK mer, det är mer verklighetstrogen fysik enligt mig. Men smaken är som baken...

Ps. Dom menar inte hårdvaru accelererad PhysX, utan software, alltså är det processorn inte AMD´s gpu som kör beräkningarna på PS4 i såfall. Så det blir inte nån Nvidia hårdvaru physx, för er som tror det...

Hur vet du att det inte är GPGPUn som kör det utan CPUn? Har du en källa?

PhysX är aldrig "hårdvaruaccelererat" såvida du inte använder Ageias fysikkort med deras PPU som är den enda hårdvara som verkligen utnyttjas på bästa sätt sett till programmet det skall köras med (NovodeX/PhysX). Fysik överlag körs bäst på en hårdvara som kan samtala mellan olika trådar direkt på processorn för att på så sätt jämföra resultaten utan att ideligen skriva till sitt RAM-minne. Detta var ett av huvudnumren hos Ageias PPU. Vad jag hört så har dock Nvidia försökt skriva rutiner som i viss mån gör just detta på deras GPGPUer. Hur väl det funkar i förhållande till Ageias PPU vet jag dock inte. GPGPUer är som sagt inte uppbyggda för att köra fysik (en PPU är ganska olik uppbyggnaden på en GPU). De är bara väldigt kraftfulla vad gäller allmän uträkning p.g.a. alla kärnor. I detta fall liknar GPGPUer alltså CPUer... bra på bred front men samtidigt varken bäst eller särskilt effektiva sett till varje enskild uppgift.

Fysikuträkningarna bygger ju alltså inte bara på vad varje "kordinat" gör vid varje givet tillfälle (så som när en kloss eller fragment flyger genom luften vilket t.o.m. en CPU klarar av i ganska omfattande mån i realtid). Det är ju ofta lika viktigt att ta reda på i vilken mån de olika kordinaterna påverkar varandra så som i vätske- och tyguträkningar där alla uträkningspunkter konstant puttar eller drar i varandra... komunikationskravet blir enormt, något som totalt överbelastar en CPU som har några enstaka trådar och därtill ganska låg bandbredd till RAM att jobba med. Titta på tyguträkningarna i Cryteks spel så som Crysis 3. Det är få uträkningspunkter på de CPU-baserade uträkningarna (få leder i tyget).
Latenserna mellan var uträkningstråd och minnet drar ner prestandan rejält, även på en GPGPU. Det som räddar GPGPUerna är att de har så djävulskt många trådar och därtill hög bandbredd. Latenserna är däremot höga. Men den överväldigande kraften får det gjort i realtid oavsett. På Ageias PPU däremot kunde mycket av dessa "trådsamtal" ske inom själva processorn utan att behöva skriva resultaten "i onödan" till dess RAM. Latenserna vart otrolikt låga och bland annat därför nådde den hög fysikprestanda utan urbota kraftig hårdvara.
Kraftiga CPUer kan alltså ofta köra "fragmentuträkningar" från PPU-baserade spel i realtid om än i mindre skala än en GPGPU eller PPU. Tyg- och vätskeuträkningarna från samma spel får däremot vilken CPU som helst att gå ner på knä. Spelet Cellfactor är ett bra exempel på detta.

Av Utgardaloki
Skrivet av kira9204:

Jag förstår inte hatet mot PhysX, nVidia köpte upp Ageias, och vidareutvecklade PPU kort konceptet till CUDA kärnorna.
Varför skulle nVidia bara ge bort en teknik som dem har spenderat hundratals miljoner på att utveckla?
AMD har erbjudits att få tillgång till tekiniken om de accepterade att betala licenskostnaderna för det, men icke.
Att ett AMD kort i det här fallet kanske får stöd för GPU accelererad PhysX skulle jag speckulera i att det är Sony som har efterfrågat.
Jag förstår inte hur folk kan se nVidia som den elaka bara för att dem utvecklar nya tekniker som dem vill ha betalt för?

Är det så att Nvidia har erbjudit AMD att använda PhysX genom licens? Det kände jag inte till. I sådant fall så hoppas jag att de båda kan nå någon form av överenskommelse för PhysX är som jag sagt tidigare suveränt vad gäller möjligheter.

Som det är nu tycker jag hur som helst det mest är rapparkalja. PhysX begränsas ju som sagt till andra gradens fysik så länge det inte blir en allomfattande standard av det. Vi får m.a.o. inget mer än litet ögongodis snarare än en fullfjädrad fysikbaserad spelupplevelse (första gradens fysik).

Som jag visade i en annan tråd:

Andra gradens fysik = "sjysta effekter".
http://www.youtube.com/watch?v=eBlMuUqtI54

Första gradens fysik = "blir du träffad så dör du".
http://www.youtube.com/watch?v=8OxtF1gvg5g

Av Utgardaloki
Skrivet av Ant3:

Är det alldeles för långsökt att de kanske sitter en liten dedikerad PhysX krets i PS4?

Med tanke på att inte ens Nvidia har någon dedikerad PhysX-hårdvara så skulle jag gissa på "ja"

PhysX började som ett forskningsprojekt som inriktade sig på att ta reda på hur man bygger en processor som på ett effektivt sätt kan ta hand om en del av de typiska uträkningar som krävs för att beräkna fysiskt beteende (SPARTA-projektet). Resultatet vart i slutänden Ageias PPU. Ageia köpte även ett företag kallat NovodeX AG som hade utvecklat ett program kallat NovodeX menat att beräkna fysiska egenskaper. Ageia tog hänsyn till detta program när de skapade sin PPU (physics processing unit). Programmet döpte de om till PhysX.

Nu har Nvidia köpt Ageia och därtill skrivit om programmet till att så bra som möjligt kunna köras på sina GPGPUer. Inte mycket till hårdvaruinstruktioner att tala om alltså. Det är ett program som körs. Och GPGPUer är inte världsbäst på att köra sådana program. Men en GPGPU är urbota kraftig och kan alltså åstadkomma mycket även fast den inriktar sig på allmän processering i detta fall. Mycket av effektiviteten i Ageias ursprungliga PPU går dock förlorad. En GPGPU använder sig med andra ord av brutal kraft till skillnad mot en PPU som gör det med optimerad hårdvara.

Koden kan hur som helst skrivas om till att rulla på i stort sett vilken processor som helst (med skiftande resultat).