Unlimited Detail lovar oändlig detaljrikedom i spel

Permalänk
Medlem

Nicer demo or it didnt happen...

Allt han säger låter logiskt och riktigt, men med den fula demon han visar upp kan jag inte annat än tro att det är BS. Intressant är det dock!

Visa signatur
Permalänk

Verkar vara ett tidigt stadium, verkar funka bra i teorin om man har mycket minne, dock borde man kanske belasta Prollen mer i första hand innan man låter minnet och GPUn ta över sitt arbete, men som sagt, verkar vara ett tidigt stadie av utvecklingen ^

Visa signatur

Jag är trött på att alla vuxna säger att man kan få mardrömmar av spel, Själv så har jag dock varit med om det. När jag var liten så spelade jag ett spel som gick ut på att stänga in små studsande bollar så snabbt och effektivt som möjligt. Men så en natt drömde jag att jag var bollen, det var då jag upptäckte att jag hade Klaustrofobi...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Lofman
Man kan ju inte köra ljud fysik och grafik på processorn.

Det kan man visst, en CPU kan köra ALLT. Fysik körs ju fortfarande på CPU (utom när physx är på), och tidig grafik renderades av CPU. Hur det är med ljudet vet jag inte, men det KAN iaf processas av CPU.

Visa signatur

Asus Prime X470-pro | AMD Ryzen 7 2700X | Corsair H115i | MSI GTX 1070 Gaming X | G.Skill Ripjaws 32 GB 3200 MHz | Samsung 970 EVO 1TB | Corsair RM750x v2 | Fractal Design Define S

Permalänk
Medlem

Jag är inte helt med på vart fördelarna kommer in i detta, hela modellerna måste väl ändå defineras på något sätt, och vart de rör sig måste beräknas osv? Är inte riktigt heller med på HUR objekt defineras, det finns ju ändå en anledning till att just polygoner (trianglar) används (det enklaste geometriska objektet med yta). Missar jag något?

Visa signatur
Permalänk
Medlem

Om de vill hitta investerare bör de nog fixa ett bättre demo. Jag förstår varför nvidia och ati inte hoppade på spåret direkt.

Idag har de inte en produkt som är bättre än det som finns på marknaden. Tror absolut att nvidia skulle vara intresserade om det här faktiskt fungerade.

Visa signatur

//Bacon

Permalänk
Medlem

Kommer nog bli riktigt bra med lite utveckling, så trött på polygååååner att jag vill spy över dom Förresten tyckte jag demot såg riktigt bra ut, fattar inte folk som klankar ner på det eftersom grafiken var överlägsen det snyggaste spelet som finns idag på högsta inställningar.

Permalänk
SpelClockers

Som det ser ut nu är ju imponerande men jag skulle tro att när det implementeras effekter som påverkar indirekt punkten som ska visas så måste Hela objektet i sig beräknas det blir en snöbollseffekt och tappar fördelen av tekniken.

hoppas dock att man har fel.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Bacon
Om de vill hitta investerare bör de nog fixa ett bättre demo. Jag förstår varför nvidia och ati inte hoppade på spåret direkt.

Idag har de inte en produkt som är bättre än det som finns på marknaden. Tror absolut att nvidia skulle vara intresserade om det här faktiskt fungerade.

varför? som jag förstår det så kommer man inte behöva ett grafikkort om detta fungerar... eller? och då skulle både nvidia och ati bli ganska gråtfärdiga tror jag

Visa signatur

"I may be wrong, but I'm not uncertain."
Robert Heinlein, Glory Road

Permalänk
Medlem

Svårbedömt.
Antingen är det här, som han säger, den största uppfinningen sen datorgrafikens början, eller så är det bara massa oanvändbart bullshit.
Vore som andra här säger trevligt att se någon fotorealistisk demo som bevis för att det inte bara är massa säljsnack..

I vilket fall är det kul med nya innovativa ide'er och inte bara fler och mer av samma hela tiden.

Visa signatur

Namn : Jesper | Ålder : 45 | In-game namn : iller
Yrke : Matematisk modellerare (finansiell matematik), mjukvaruutvecklare för risksystem.
Utbildning : Doktor i matematik + en del mat-stat, numme och IT-relaterat.

Permalänk
SpelClockers

Ja de kan ju komma igen när de lyckas lägga in effekter som finns i nuvarande spel men ändå hålla denna detalj och prestada.

Hade det varit så banbrytande som de målar upp för oss så hade nog nvidia intel ati stått utanför deras dörr med välfyllda portföljer.
Därför känns det fortfarande lite som grisen i säcken deal.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av STimmyS
varför? som jag förstår det så kommer man inte behöva ett grafikkort om detta fungerar... eller? och då skulle både nvidia och ati bli ganska gråtfärdiga tror jag

Nej sant grafikkort som dom är i dagens läge skulle dö ut, men å andra sidan skulle det nog skapa en stor marknad för fysikkort vilket båda nvidia och ATI pillar runt med.

Verkar som dom flesta tittar runt och ser att detta inte ser snyggt ut och avfärdar det hela, tror man skall ha programmerat för 3D för att förstå vilket otroligt framsteg detta kan vara.

Dvs om dom löser dom kringliggande sakerna, med ljus och skuggor, animeringar och modellering och lyckas skapa ett välgjort API.

Visa signatur

There are 10 types of people in the world: Those who understand binary, and those who don't...

Asus Maximus VIII Hero | i7-6700K | ASUS GeForce GTX1070 Strix 8GB | G.Skill F4-2133C15Q-32GRK |

Permalänk
SpelClockers

Just nu har de ett system som inte beräknar hela modellen pga av att det inte finns massa effekter som kräver detta.

Men om du plötsligt lägger in skugga mm så behöver du beräkna hela modellen som skapar sekundära beräkningar på objekt som skuggan faller på och då borde kraven bli enorma.

edit ser att deras skuggsystem inte funkar på deras demo...

Permalänk
Medlem

Det här verkar riktigt intressant.
Tekniken är inte riktigt mogen ännu för att kunna utnyttja detta på bästa vis, men det kommer ganska snart.

ang. Minnet
Tesselation kan användas för att generera high density point clouds, precis som den gör med vanliga polygoner. annars kan man använda någon enklare interpolation.
Det finns nog inget hinder för att generera pointclouds från "vanliga" vertex objekt.

ang. Ljussättning
Här får vi nog vänta på Dx12 och raytracing innan vi börjar få något användbart. Själva grundideen med denna teknik lämpar sig perfekt för just raytracing. Raytracing utgår ju just ifrån punkter.
Annars får man använda pixelshaders eller något sånt, vilket kan bli lite väl tungt för dagens kort att klara av om man vill ha 1920x1080 eller något sånt.

Det här är en grundläggande teknik som kräver en annorlunda workflow för att fungera på bästa sätt.
Verkar mycket lovande inför raytracing eran.

Permalänk
Medlem

Grymt! kul med nya tekniker, man får vara lite "openminded" , man måste ju börja någonstans, visst ljuset kanske inte går o fixa DIREKT, men det kommer.

Permalänk
Medlem

HHMMMmmm
Märker att dom använder crysis en del där. som jämförelse. och dom får crysis att se riktigt polygoniga ut.. men jag minns inte att crysis såg så... blaha ut när jag dock spelat. med detta menar jag att deras bild-jämförelse är under min kritik iaf.

låter endå lovande. problemet är ju allt det där med skuggning, ljus, fysik, animationer. antar att hårdvaran vi har idag skulle suga på att måla upp sådanna här saker.

dom skulle behöva lite funding, och sedan release några tools och käll kod till moddare för att få fram lite intressanta spel.

att måla upp saker på skärmen har aldrig riktigt varit problemet, det kan vi göra bra idag, det är när saker och ting ska röra sig, och integreras och allt som det blir problem.

Visa signatur

i5 3570K, Corsair H100, 16Gig Corsair Vengence, Gigabyte GTX 470, WD Caviar Black

Permalänk
Citat:

Ursprungligen inskrivet av MrMadMax
Kul när det kommer nya tekniker. Om det nu är så bra som dom säger så är det ju hejdå för Nvidia, Ati och i framtiden kommer alla köra på Intels GMA950 hehe, man köper en dator som räcker hela livet?

Damn så tråkigt detta låter när jag tänker på det. haha

haha word!

Permalänk
Medlem

Just fysik borde väl kunna bli mycket mer realistiskt med tanke på de små detaljer man når med denna teknik.

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk
Medlem

Måste ju få påpeka att det ser ut att vara härligt lagg i half-life 2 där annars spännande, iaf lite.

Visa signatur

|| AMD 5900x || ASUS ROG Formula VIII || 2x ASUS GTX 980 SLI || 32GB G-Skill || Vattenkylt || HDD : SSD’er || Skärm : LG42" SL8500 / Acer G24 ||

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Melekai

att måla upp saker på skärmen har aldrig riktigt varit problemet, det kan vi göra bra idag, det är när saker och ting ska röra sig, och integreras och allt som det blir problem.

Och varför i hela fridens namn tror du som söker pengar till sin utveckling?

Visa signatur

There are two kinds of people: 1. Those that can extrapolate from incomplete data.
Min tråkiga hemsida om mitt bygge och lite annat smått o gott: www.2x3m4u.net

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av +_+
Måste ju få påpeka att det ser ut att vara härligt lagg i half-life 2 där annars spännande, iaf lite.

Det var ju inte deras teknik som plötsligt användes i hl2, det var ju för att visa polygonskiten. Jag kanske missförstod dej, annars haha

Hoppas och framtiden får utvisa om detta är så bra. Vore underbart med en fulländad 3d-grafik, slippa polygonracet förr eller senare. Satsa allt på en bra SSD och Processor istället

Visa signatur

AMD 7700X (EK 240mm AIO) | ROG Strix B650E-F Gaming | Gigabyte RX 6800 XT 16GB OC | Kingston Fury 32GB DDR5 5600mhz | Kingston Fury Renegade M2 2TB | Alienware AW2723DF 280hz

Permalänk

Dem borde hitta en grafiker som inte kräver sjukt med pengar just nu och som kan rita dem riktigt fin grafik så man lättare ser vad deras teknik klarar av.

Andra filmen där såg ju lovande ut, man ser verkligen hur kantiga runda föremål är. Man har inte tänkt så mycket på det när man lirat faktiskt, men man ser ju skillnaden nu.

Permalänk
SpelClockers

Man är ju så van vid kantigheten nu så man tänker inte på det.

Permalänk
Medlem

satan vad jobbig låt som spelas i bakgrunden. =/

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mr rulle
av filmen att dömma så verkar det inte snabbt direkt och tänkt hur det blir när de lägger på sekundära effekter . ljus skugga reflektioner

haha bara reflektion effekten skulle orsaka en ytterligare stor "sökning" innan färdig bild kan visas.

lägg sen till typ åsk effekter som inte är statiska..
cool grej men rent visuellt så ligger det extremt långt bakom nuvarande tekniker.

Reflektioner är väl snarare en av deras starka sidor då det är i princip samma sak de gör även när det inte är reflektioner, de kan helt enkelt peka vidare pixeln med valfri applicerad effekt. Reflektioner använder de dessutom i videon på det som ska föreställa vatten.

Ljuseffekter som t.ex. de från en ficklampa som hålls i fps spel kommer troligtvis att se bra ut och kräva minimala resurser då denna skulle kunna renderas samtidigt som själva bilden, alltså ett fåtal extra beräkningar.

Ljuseffekter och även skuggor i miljön skulle däremot kunna kräva en hel del beräkningar, får se om de hittar något sätt att lösa detta på.

Även om tekniken är väldigt intressant och har möjligheter att se bra ut med bara cpukraft så är deras ide om att det skulle vara det största som hänt någonsin inom 3dgrafik minst sagt uppblåst. Hela industrin går åt ett helt annat håll där grafikkort används till mer och mer.

Vet inte hur gamla dessa videor är, men har killarna som utvecklar detta hört talas om tesselering? BAM! right in the kisser!

Visa signatur

Om du vill att jag ska se ditt svar så tryck på Citera.

Permalänk
Medlem

Jag tycker det verkar väldigt lovande, och att ATI/NVIDIA inte nappar kan man nog också förstå, de skulle skjuta sig i foten om man övergår till en ny teknik som inte är lika beroende på "snabbare/nyare" grafikkort.

Det hade varit trevligt med några "exempel" på vad för dator de körde på och upplösning, etc.

Att de inte har "fixat ljussättning" än är lite skitsamma, det är ju de som deras 16 månader är till för, att fixa sådana saker. Redan nu har de ju en extremt imponerande reflektionssystem.

Kanske inte deras företag som blir det stora, men det är helt rätt väg att gå med att se till att man bara "renderar det som behövs".

Visa signatur

There can be only ONE...

Permalänk
Medlem

Det här påminner om "streamade" spel där man kan lira Crysis med en kass burk genom att "flytta" över bilden till den dåliga burken medan den renderas på datorn med bra grafikkort. Vad hände med tekniken? Bortglömt redan efter några månader?

Deras hemsida ser ut som nåt från 90-talet. Hur ska man ta de seriöst? Dessutom ser deras filmer ut som nåt från början början på 2000-talet eller ännu äldre.

Nej är man seriös då gör man inte så som de gjort. Detta kommer vara bortglömt rätt så snabbt. Fattar inte att så många här inne går på detta ens.
Det enda nya de har kommit med egentligen är deras algoritm som kan hitta "punketerna" som ska synas i pixlarna. Allt med deras presentation är amatörmässigt samt oseriöst enligt mig.

Permalänk
Medlem

Tvärtom mot vad många här säger, skulle varken AMD eller Nvidia skjuta sig i foten genom att satsa på detta. Det skulle tvärtom göra sig själva en tjänst genom att vara först med nästa stora grej inom den gigantiska spelindustrin. Och jag kan säga, med rätt stor säkerhet, att bägge redan nu frenetiskt letar nästa nya grej. Det är så man överlever som företag. Det Nvidia och AMD tjänar pengar på, är att lösa ett problem åt konsumenter. Om detta råkar vara ett grafikkort eller magisk sand spelar inte större roll.

Dessvärre är de så integrerade i plattformen PC, att ingen av dem har särskilt stort intresse av att lösa något på ett nytt och smart sätt inom överskådlig framtid, utan först när de är färdiga med att ha sugit ut sista öret ur alla konsumenter så går de vidare... och de är tyvärr så stora att de faktiskt kan sätta käppar i hjulen på nya, lovande tekniker. Däremot skulle de oundvikligen gå under och ett nytt litet okänt företag, skulle stiga upp och bli nästa grafikkung.

Att UD är nästa grej är inte alls säkert, jag bara rantade eftersom folk inte verkar förstå hur hopplöst allt blir för oss konsumenter när en plattform tillåts bli så stark. Utvecklingen blir precis den vi ser idag. Större, törstigare och varmare. DYRARE. Men det finns en ljuspunkt i allt detta, nån dag kommer en disruptiv teknologi poppa upp och Nvidia och ATI kommer att bli myter om dagarna då plastkort med insmälta halvledningar ritade nästan verklighet med små trianglar... knasigt. Dessvärre kommer även denna nya teknik bli nästa plattform och suga oss på allt vi är värda.

Hoppas de löst problemen med Bad Company 2 tills dess... Hoppas kan man ju:p

Visa signatur

Allan, please add signature

Permalänk
Hedersmedlem

Blir alltid såhär när det någon påstår att de komit på nån ny revolutionerande uppfinning men behöver lite pengar för att slutföra det osv...

Det finns de som vet vad det snackas om och vet att det är rent skitsnack, eller som här att det fortfarande fattas så otroligt mycket jobb innan det blir nått alternativ till det som redan finns även om det de påstår skulle vara sant.

Sen finns det dem som tycker "man ska ge dem en chans", "tänk om det funkar" eller börjar komma med en massa konspirationsteorier och drar paralleller till motorer som drivs på vatten och onda oljebolag. Det jag saknar i den här tråden är referenser till evighetsmaskiner, de brukar vara roliga...

Visa signatur

Nämen hej!

Permalänk

Varje punkt på skärmen måste komponeras av ett flertal punkter. Tänk motsvarande teknik som för kantutjämning för trianglarna och tänk på skillnaden i prestanda för de olika nivåerna. Utan en motsvarande teknik så kommer resultatet att bli precis lika kantigt eller så kommer man att förlora väsentlig information.

Bilderna som visades var för statiska miljöer. Animationer och fysik är direkt knytet till antalet noder som objekten består av. Dubbla antalet noder och du måste i BÄSTA fall även dubbla beräkningskapaciteten. Med oändligt antal punkter (motsvarande noder) så behövs oändlig beräkningskapacitet.

Redan idag så försöker spelmotorerna sortera bort så många trianglar så möjligt för att slippa rita ut dem. Detta på grund av att man ej klarar av att utföra förmånga matrisoperationer. Istället har man infört ett flertal olika textursorter som ökar detaljrikedomen. Man har inte bara texturer för att färglägga objekten. Man har även texturer för att bestämma hu ljuset ska brytas över ytan.

All data som används i dagens spel får inte ens plats i minnet samtidigt utan behöver laddas successivt. För att minnet inte ska ta slut i öppna miljöer och för att värden inte ska få ett abrupt slut så använder man objekt med färre noder och sämre texturer desto längre från åskådaren objekten befinner sig. Det fanns absolut inget som indikerar att deras "nya" teknik klarar av att hantera stora ytor med samma detaljrikedom som dagens spel.

En av de begränsande faktorerna i dagens spel är just minnet. Det tar för lång tid att använda det. Desto mer minne som används desto söligare går det. Om man nu skulle utökat deras värd med animationer och fysik så kommer man behöva göra väldigt många minnesannrop. En klart begränsande faktor.

Summa summarum, det är en ren lögn att de endast behöver använda lika många punkter som skärmyta. Deras spelvärd är statisk och starkt begränsad i utrymme.

Orkar inte skriva mer. Detta är bara så fel som det kan bli.

Permalänk
Medlem

Spontant tänker jag att utvecklingen med hårdvaruaccelererad polygon-tesselering borde ge liknande resultat. Speciellt om man närmar sig Micropolygons i storlek. Då behöver man inte spara och söka i ett pointcloud utan kan istället använda vanliga 2D-texturer för att displacea diceade polygoner - och det är väl ditåt utvecklingen går?

http://www.youtube.com/watch?v=gkI-ThRTrPY

Visa signatur

~ Macbook <> Debian-server