Anmäl dig till Roborock Challenge!

Krönika: Shadows visar att framtiden är AI-genererad

Permalänk
Medlem
Skrivet av _genki:

Som spelutvecklare håller jag inte med krönikan alls... Problemet med modern rendering är att den ofta är "generaliserad" och allt renderas i realtid, anpassat för 4K alena. Inte 720p för handhållna PCs, inte för 1080p, fortfarande den populäraste upplösningen, samt 1440p.

Sedan kommer vi till RT. För ett spel som AC: Shadows. På Steam Deck finns det ingen RT utomhus, men det finns inomhus. Varför är denna i realtid? ifall miljöerna är fullkomligt förstörbara så är det meriterande, är miljön statisk då finns det ingen anledning. Man kan även använda voxel-baserad RT för att uppnå snarlikt resultat som strålspårad RT, dock utan artefakterna. Det finns så många sätt att lösa problem på, men vi befinner oss i en tid där realtids 3D-rendering är slapp och oteknisk.

Det är viktigt att konsumenter av dessa spel kräver "bättre" snarare än att gå på nvidias "talking points"... Det finns fortfarande stora möjligheter att optimera spel, men det måste också finnas ett krav från spelare och vilja från utvecklare. Folk som klagar på att grafiken enabrt känns marginellt bättre sedan 2015 har en poäng, för det stämmer.

Jag tror snarare problemet är att vi gått upp i 4K med RT utan att ha den teknologiska utvecklingen som vind i seglen som vi varit vana vid tidigare. Moores lag som den såg ut är i princip död nu och vi ser inte samma fart och fläkt på hårdvarusidan. Det vi har sett på senare år är att både kretstillverkare och spelutvecklare försöker innovera och optimera med mjukvaran istället.

Man får också ha förståelse för att de flesta spel inte är utvecklade från ett prestandaperspektiv. Det är inte programmerare som leder studion. Alla kan inte heller vara en John Carmack som skriver en egen spelmotor. Man får anpassa lite efter sina egna verktyg och vad de flesta utvecklare är vana vid att använda.

Sen till RT i spel: Jag tycker du har lite fel i att det inte finns fördelar i statiska miljöer. Self-shadowing på spelarkaraktären och andra rörliga föremål, speciellt små saker inne i ett rum ser väl mycket bättre ut med RT i realtid? Det är enklare att få det att se bra ut om inte annat.

Visa signatur

MSI B650 Tomahawk / AMD 7800X3D / 2x16 GB Kingston Fury 6000Mhz DDR5 / ASUS TUF RTX5070ti 16GB / Corsair RM850x Shift / Samsung G80SD 4K 240Hz OLED

Permalänk
Medlem

Framegen kommer att fortsätta vara trams för mig tills dess att det adderar 0 latency.

Permalänk
Medlem
Skrivet av ipac:

Endast om du missat att boka tid hos specsavers.

DF video var rätt bra, inkl motivering av valet av RT GI.
https://youtu.be/nhFkw5CqMN0?si=0SyWBpA3vIgBvzgO

Grafik är mer än texturer, har du sett hur fundamentalt trasig combat är, zero physics, rag dolls som verkar helt utan rigs etc. Men visst, det ser finare ut om du tittar på marken.

Permalänk
Medlem
Skrivet av FabriciusRex:

Vad sker om muspekaren är i rörelse och man skjuter i rörelsen? Om man har 4x fm på då är 3 av fyra frames genererade. Interpolerar drivrutinen var pekaren ska vara mellan två riktiga positioner av pekaren? Vad sker om man skjuter just i ett interpolerat tillstånd? Hur kan grafikmotorn veta det? Eller kommunicerar drivrutinen detta till motorn. "Hej, speleraen sköt av ett skott mellan dina riktiga frames".

..jag använder inte fm själv utan är bara nyfiken på hur det hela fungerar.

Spelet rullar på som vanligt i sin grund-fps. Rör du pekaren snabbt mellan frames kommer du inte se vart pekaren befinner sig under den perioden. Du ser vart pekaren är i nästa frame. Beroende på hur spelets motor hanterar input kan detta bli olika resultat. Input kan vara frikopplat från din fps och hanteras även mellan frames eller kan vara knutet till din frame.

Alltså bara riktiga frames räknas i motorn men du kan fortfarande röra pekaren och skjuta mellan dina riktiga frames. Och det kan hanteras olika.

Permalänk
Medlem
Skrivet av Thomas:

Vad syftar du på här egentligen?
Målet för realtidsrendering har väl alltid (sedan 70-talet iaf) varit realtids-ray tracing, så när det började bli praktiskt möjligt är det väl klart att de gillar det?
Sen så tycker jag inte de pushar för det så 100% som du verkar tycka. De brukar ju t ex prata om hur spel funkar på Ryzen 3600 och RTX 4060, och där är svaret sällan "max RT".

Exakt. Tror inte folk förstår hur krävande ray-tracing är. En (1st!) frame i komplicerade miljöer brukade ta TIOTALS TIMMAR att rendera. Att man med ai kan denoise:a och skala upp och få skiten att köras i realtid är helt sjukt egentligen! Men vi kan gnälla över några ms latency istället... och glöm inte minst företagen som gör detta möjligt... de vill bara tjäna pengar. suck

Permalänk
Medlem
Skrivet av _genki:

Kan vara värt att titta på denna video och sluta titta på DF:
https://www.youtube.com/watch?v=NxjhtkzuH9M

Urk. "Stäng av prenumerationen"...typiskt sån där click-bait negativ överreaktion som man inte tål. För mkt sånt på Youtube.

Givetvis är inte DF felfria och givetvis ska man inte lita blint på dem (ELLER någon annan youtuber, inkl den du länkade till). Men det är fortfarande så att DFs video på ett rätt bra sätt visar spelets grafik och mer specifikt vad raytracingen faktiskt ger och det var det som var poängen i sammanhanget.

Permalänk
Medlem
Skrivet av Alexraptor:

Fast det vi pratar om är om är inte latens, utan att framegen inte representerar aktuell gamestate. T.ex har du en projektil med en motion vector, så är det fullt möjligt att en frame genereras som ser ut som en headshot, trots att spelmotorn bestämmer att det är en miss.

En genererad frame kan inte visa någon ny händelse. Bara nya positioner.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av _genki:

I mina ögon ser jag det mer som att du tycker DF, du tycker om människorna på DF, och tycker om innehållet för att det är "mysigt". Men det gör ju inte att de för den delen har "rätt" i sakfrågor.

I många frågor, som om raytracing och uppskalning är åt rätt håll eller inte finns ingen sanning, man får tycka olika och det är ok.

Jag är själv utvecklare, på en produkt med 100-tals utvecklare med massor av komponenter. Givetvis finns en massa icke optimala lösningar i platformen. Jag ser saker lite utifrån det perspektiv jag själv sitter i. Att stå och gnälla gör dig bara omöjlig att samarbeta med. Att ge konstruktiva riktade förslag med ordentlig uppföljning gör dig till en bra sammarbetspartner.

Det finns en verklighet att förhålla sig till med dagens projekt med hundratals programmerare som kanske inte alltid är så enkelt som det kan se ut från sideline, varför saker ser ut som dom gör och varför det inte är att "bara". Det finns definitivt en tröghet i dom här företagen. Men jag kan lova dig att även dom hela tiden jobbar på att streamlina sina processer och hitta lösningar på de problem som kunderna har.

Eftersom du gillar Amiga.. Jag kan implemetera en zoom-roterare på 40x32 block (8*8 pixlar copperchunky) på en halv frame (10 ms PAL) på en Amiga 500. Den är så tokoptimerad så det skall mycket till att säga att den inte är optimal, men även här tillhör jag inte riktigt eliten, men jag hajar rätt väl varför vi inte programmerar så på jobbet. Förr i tiden var det mycket mer optimerat, ja, men det är omöjligt i de projekt man sitter i nu.

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av kelthar:

En genererad frame kan inte visa någon ny händelse. Bara nya positioner.

Precis, men den kan visa en projektil som ser ut att träffa målet.

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | PG279Q | Windows XP/10 Dual-Boot |

Permalänk
Medlem
Skrivet av Lussarn:

I många frågor, som om raytracing och uppskalning är åt rätt håll eller inte finns ingen sanning, man får tycka olika och det är ok.

Jag är själv utvecklare, på en produkt med 100-tals utvecklare med massor av komponenter. Givetvis finns en massa icke optimala lösningar i platformen. Jag ser saker lite utifrån det perspektiv jag själv sitter i. Att stå och gnälla gör dig bara omöjlig att samarbeta med. Att ge konstruktiva riktade förslag med ordentlig uppföljning gör dig till en bra sammarbetspartner.

Det finns en verklighet att förhålla sig till med dagens projekt med hundratals programmerare som kanske inte alltid är så enkelt som det kan se ut från sideline, varför saker ser ut som dom gör och varför det inte är att "bara". Det finns definitivt en tröghet i dom här företagen. Men jag kan lova dig att även dom hela tiden jobbar på att streamlina sina processer och hitta lösningar på de problem som kunderna har.

Eftersom du gillar Amiga.. Jag kan implemetera en zoom-roterare på 40x32 block (8*8 pixlar copperchunky) på en halv frame (10 ms PAL) på en Amiga 500. Den är så tokoptimerad så det skall mycket till att säga att den inte är optimal, men även här tillhör jag inte riktigt eliten, men jag hajar rätt väl varför vi inte programmerar så på jobbet. Förr i tiden var det mycket mer optimerat, ja, men det är omöjligt i de projekt man sitter i nu.

Fast det enda optimeringsförslag jag gett är fullt görbart även på stor skala, det handlar enkel optimering som varit branch-standar tidigare. Skillnaden är bara att man bygger en arbetsprocess och skalbarhet kring den. Jag är definitivt ingen gnällspik som utvecklare. Precis som du säger handlar det om att ge konstruktiv kritik, och framförallt handlar det om att skapa utvecklingsprocesser som inte nödvändigtvis är mer tidskrävande för utvecklare och artister. Det finns ju heller inget värde i att försvara slapp optimering. brutalt optimerad kod och grafik likt den jag och mina vänner gjorde till spelet "Dread" till Amiga är inget som jag kräver av någon (Jag är inte delaktig i dread-gänget längre p.g.a. att jag var på väg att bli utbrännd med alla projekt jag hade igång). Men basal optimering baserat på hur GPUer fungerar kan man kräva som konsument. Vet inte riktigt hur vi förlorade den tekniska kompetensen och styrningen hos stora AAA-studios. Nu när AAA-spel är dyrare än någonsin att tillverka så borde skalbarhet vara av ytterst vikt eftersom man vill nå ut till en så stor spelarbas som möjligt. Att designa spel uteslutande efter 4K är i mina ögon inte riktigt rätt väg att gå.

Visa signatur

Motorola 68020 @ 42Mhz, AGA Grafik, 2MB RAM, 8MB Fast RAM, 2GB eMMC

Permalänk
Medlem
Skrivet av NLLY:

Ja okey då förstår jag vad ni menar. Även om hans fråga i så fall handlar om ifall en grafisk artefakt räknas som ett headshot. Och det gör det såklart inte.

En frame generering sker mellan två vanligt renderade frames. Inte in i framtiden och inte bara baserat på motion vectors utan också optical flow. två korrekta färdiga renderingar används för att ta fram den genererade bilden mitt emellan.

Att det kan bli grafiska artefakter visst. Men har svårt att se det fallet som något som är relevant.

Intressant är att Nvidia har bytt ut sin lösning för optical flow beräkningarna i dlss 4.0.

Är du HELT säker på det där?

Speciellt "En frame generering sker mellan två vanligt renderade frames."

Om nästa vanligt renderade frame redan var färdig, skulle den ju för bövelen bara visa den!

Annars ökar man på input latency med minst en frame, och får gummibandseffekter om man t.ex. vickar musen höger/vänster.

Jag säger inte att det omöjligt kan vara så, men om det är så, så är det ännu sämre än jag trodde.

Visa signatur

Gammal och gnällig

Permalänk
Medlem
Skrivet av _genki:

Man bockar, något av det finaste jag sett på en Amiga

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Fjädernylle:

Framegen kommer att fortsätta vara trams för mig tills dess att det adderar 0 latency.

Detsamma kan man säga om alla settings över 720p low också. Allt är en avvägning.

edit:
Du talade specifikt om dig, och du kan förståss tycka så.

Visa signatur

- 5090

Permalänk
Hedersmedlem
Skrivet av lincoln:

Är du HELT säker på det där?

Speciellt "En frame generering sker mellan två vanligt renderade frames."

Om nästa vanligt renderade frame redan var färdig, skulle den ju för bövelen bara visa den!

Annars ökar man på input latency med minst en frame, och får gummibandseffekter om man t.ex. vickar musen höger/vänster.

Jag säger inte att det omöjligt kan vara så, men om det är så, så är det ännu sämre än jag trodde.

Det är absolut så med DLSS FG och FSR.

Anledningen är förstås att det är mycket lättare att interpolera mellan två kända bildrutor än att extrapolera och gissa vad som kommer hända. Det sistnämnda är i princip omöjligt för grafikkortet att göra.
Tänk om en karaktär står precis utanför skärmen och man flyttar musen -- hur ska den kunna veta att någon står där, och exakt hur den karaktären ser ut?
Samtidigt kan den inte heller bara anta att allt kommer vara som det var bildrutan innan, för då kommer karaktären bara plötsligt blinka in på nästa riktiga bildruta.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av FabriciusRex:

Vad sker om man skjuter just i ett interpolerat tillstånd? Hur kan grafikmotorn veta det?

Grafikmotorn har ingen som helst aning om ifall du använder frame generation eller inte. Så vitt den är beträffad så spelar du i, säg, 60 FPS för det är ju det du gör. Sen kommer grafikkortet in och genererar extra bildrutor mellan de "riktiga" på väg ut genom slangen till din skärm. Lite förenklat sagt. Detta medför latency vilket gör att dina ögon ser händelser något efter att de verkligen har hänt, på samma sätt som att du har latency om du spelar CS i 600 FPS med en skärm som bara uppdaterar sig i 20Hz (fast här blir det tvärtom, då)

Permalänk
Medlem
Skrivet av Thomas:

Det är absolut så med DLSS FG och FSR.

Anledningen är förstås att det är mycket lättare att interpolera mellan två kända bildrutor än att extrapolera och gissa vad som kommer hända. Det sistnämnda är i princip omöjligt för grafikkortet att göra.
Tänk om en karaktär står precis utanför skärmen och man flyttar musen -- hur ska den kunna veta att någon står där, och exakt hur den karaktären ser ut?
Samtidigt kan den inte heller bara anta att allt kommer vara som det var bildrutan innan, för då kommer karaktären bara plötsligt blinka in på nästa riktiga bildruta.

Jag tänkte det var något smartare - att den utgick från en färdigrenderad frame med kända objektpositioner, och sedan, baserat på nya objektpositioner (men alltså inte en helt färdigrenderad frame), kunde göra en AI-assisterad uppskattning av hur det borde se ut. Och sen, innan man hann märka att det såg dassigt ut, kom nästa färdigrenderade frame och skrev över artefakterna.

Men hela den här FG-hypen är alltså om interpolering mellan bildrutor. Det känns *väldigt* B.

EDIT: FG, Sickan. FG!! /EDIT

Visa signatur

Gammal och gnällig

Permalänk
Hedersmedlem
Skrivet av lincoln:

Men hela den här AI-hypen är alltså om interpolering mellan bildrutor. Det känns *väldigt* B.

Bara vad gäller FG, vi har ju även uppskalning med DLSS/FSR/XeSS (som i mina ögon är bättre och med mindre nackdelar) samt annat som Ray Reconstruction.
Uppskalningen kostar ingen latency utan ger som vanligt lägre latens iom högre FPS. Samma sak med RR, fast det är väl mer fokuserat på bildkvalitet än prestanda i regel.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Thomas:

Bara vad gäller FG, vi har ju även uppskalning med DLSS/FSR/XeSS (som i mina ögon är bättre och med mindre nackdelar) samt annat som Ray Reconstruction.
Uppskalningen kostar ingen latency utan ger som vanligt lägre latens iom högre FPS. Samma sak med RR, fast det är väl mer fokuserat på bildkvalitet än prestanda i regel.

Ja, sorry, jag menade 'FG-hypen'.

Tack också för att du berättade hur det låg till.

Visa signatur

Gammal och gnällig

Permalänk
Medlem
Skrivet av Lussarn:

Man bockar, något av det finaste jag sett på en Amiga

Hahaha, tack. Kan glatt meddela att jag var med och tog fram den nya grafiska stilen för dread. Det var väl det sista jag gjorde innan jag var tvungen att gå ner i varv. Synd, för det var ett av de roligaste projekten jag arbetat på. Så här såg det sista texturpaketet ut som jag gjorde:

Texturerna och färgerna är modifierade av John sedan dess, men jag är fortfarande glad att jag fått lämna lite av ett märke i spelets utveckling iaf.

Visa signatur

Motorola 68020 @ 42Mhz, AGA Grafik, 2MB RAM, 8MB Fast RAM, 2GB eMMC

Permalänk
Medlem
Skrivet av _genki:

Hahaha, tack. Kan glatt meddela att jag var med och tog fram den nya grafiska stilen för dread. Det var väl det sista jag gjorde innan jag var tvungen att gå ner i varv. Synd, för det var ett av de roligaste projekten jag arbetat på. Så här såg det sista texturpaketet ut som jag gjorde:
<Uppladdad bildlänk>
Texturerna och färgerna är modifierade av John sedan dess, men jag är fortfarande glad att jag fått lämna lite av ett märke i spelets utveckling iaf.

Det är snyggt, skulle fungera till ett 2D spel också.

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av _genki:

Hahaha, tack. Kan glatt meddela att jag var med och tog fram den nya grafiska stilen för dread. Det var väl det sista jag gjorde innan jag var tvungen att gå ner i varv. Synd, för det var ett av de roligaste projekten jag arbetat på. Så här såg det sista texturpaketet ut som jag gjorde:
<Uppladdad bildlänk>
Texturerna och färgerna är modifierade av John sedan dess, men jag är fortfarande glad att jag fått lämna lite av ett märke i spelets utveckling iaf.

Spännande, flådigaste "3D":n jag sett på en A500... smått imponerad, måste gått mycket klurande & kärlek in där!
Lite samma känsla som när man rasslade igång Wolfenstein på en 286:a (och det var definitivt inget beräkningsmonster heller).

Visa signatur

|[●▪▪●]| #Monster Battle Station(tm)#: Ryzen 3700X >-< GB-X570-AE >-< 32GB RAM >-< RTX 4070S >-< Crucial 2TB SSD |[●▪▪●]|

Permalänk
Medlem
Skrivet av RHWarrior:

Spännande, flådigaste "3D":n jag sett på en A500... smått imponerad, måste gått mycket klurande & kärlek in där!
Lite samma känsla som när man rasslade igång Wolfenstein på en 286:a (och det var definitivt inget beräkningsmonster heller).

"Största" problemet en Amiga har är att vill du naivt sätta ut en enda pixel i ett 16 färgers skärmläge så tar det 4 minnes-skrivningar. Det var en grundläggande orsak till att Amiga dog när Wolfenstein kom, den klarade helt enkelt inte texturmappning på ett vettigt sätt. Med olika tekniker kan man snabba upp detta men det kan aldrig bli riktigt bra. Speciellt inte på en 8Mhz A500.

Det vi ser i Dread är 30 år av exprimenterande och optimerande efter Amiga dog.

* Wolfenstein är inte äkta texturmappning, men det är samma problematik

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Alexraptor:

Precis, men den kan visa en projektil som ser ut att träffa målet.

Skulle ni kunna utveckla vad ni menar med det? Hur skulle den interpolerade bilden kunna se ut som en träff om dem riktiga bilderna inte är det.

Även om projektilen och målets rörelser korsar varandras vägar mellan frames borde det visas rätt. Och alternativet hade varit att man inte ser när dem korsar varandras vägar alls.

Permalänk
Medlem
Skrivet av NLLY:

Skulle ni kunna utveckla vad ni menar med det? Hur skulle den interpolerade bilden kunna se ut som en träff om dem riktiga bilderna inte är det.

Även om projektilen och målets rörelser korsar varandras vägar mellan frames borde det visas rätt. Och alternativet hade varit att man inte ser när dem korsar varandras vägar alls.

Därför att framegen inte handlar om äkta bildinterpolering, utan använder sig av rörelsevektorer för att gissa sig till hur objekten rör sig mellan de äkta bilderna.

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | PG279Q | Windows XP/10 Dual-Boot |

Permalänk
Medlem
Skrivet av Alexraptor:

Därför att framegen inte handlar om äkta bildinterpolering, utan använder sig av rörelsevektorer för att gissa sig till hur objekten rör sig mellan de äkta bilderna.

rörelsevektorerna är ingen gissning, dem innehåller informationen om hur objekten faktiskt rör sig. (Därför är inte heller interpoleringen en gissning.)

Utöver det används optical flow i Nvidias fall enligt DLSS 3.0 beskrivning
The DLSS Frame Generation convolutional autoencoder takes 4 inputs – current and prior game frames, an optical flow field generated by Ada’s Optical Flow Accelerator, and game engine data such as motion vectors and depth.

The optical flow field captures the direction and speed at which pixels are moving from frame 1 to frame 2. The Optical Flow Accelerator is able to capture pixel-level information such as particles, reflections, shadows, and lighting, which are not included in game engine motion vector calculations.

For each pixel, the DLSS Frame Generation AI network decides how to use information from the game motion vectors, the optical flow field, and the sequential game frames to create intermediate frames

Permalänk
Medlem
Skrivet av RHWarrior:

Spännande, flådigaste "3D":n jag sett på en A500... smått imponerad, måste gått mycket klurande & kärlek in där!
Lite samma känsla som när man rasslade igång Wolfenstein på en 286:a (och det var definitivt inget beräkningsmonster heller).

KK som skapat motorn är en electroingenjör, och har arbetat professionellt med assemblerkod under 20+års tid. och är en mycket aktiv spelare i Atari-demoscenen. Dread-motorn är cross-platform och fungerar även på Atari ST (finns även en MegaDrive-fork). Mannen är sinnessjukt tekniskt kompetent. Däremot saknar han känsla för färg och design. Så mycket av kod-förändringar kring detta fick jag och John bistå med. Dessvärre fick KK lägga motor-utvecklingen åt sidan p.g.a. NDA när han fick jobb hos Epic för att arbeta på Unreal motorn. (synd, men hans lön mer än fyrdubblades så jag förstår)

När han och jag slutade, så fortsatte John med projektet i den sista stabila spelmotor-versionen. Numera heter det projektet "Grind". Det är supersynd att KK inte kunde fortsätta nu när han arbetar hos Epic. När vi slutade hade han en experimentell version av motorn som klarade diverse höjd-värden (snarare än presets på 64, 92 och 128) man kunde med andra ord göra små pixel-höga höjdskillnader vilket möjliggjorde bl.a. trappor. Han hade även funktioner som gjorde sluttningar möjliga, hissar och teleportar... Detta kom aldrig med i "Grind"

Som kuriosa, mannen har bl.a. skapat det här 4kB demot-, han kom på 1:a plats i tävlingen 4K för PC.

Skrivet av Lussarn:

* Wolfenstein är inte äkta texturmappning, men det är samma problematik

Dread har ju mer likheter med Doom, och använder sig faktiskt av Doom Builder för att skapa banor. Men ja, grundproblematiken är ju där. Dread tjänar ju en hel del cykler på att grafiken är halverad i höjdled, och egentligen även sidled. så 160x100 i upplösning. Nu var det så länge sedan att jag inte minns exakt hur KK löste det, men han lyckades praktiskt taget trolla dit vartannan pixel i sidled i texture-mapping pipelinen. vilket höjde texturerings-upplösningen till 320x100 (geometrin är dock fortfarande 160x100). Det går även att förskjuta vartanan pixel i sidled för ar att skapa illusionen av 320x200 pixlar... men i slutändan var vi överens om att den typen av dithering-effekt fick spelet att se suddigare ut och ifall texturer designades efter 320x100 så gav det bättre visuellt resultat.

Visa signatur

Motorola 68020 @ 42Mhz, AGA Grafik, 2MB RAM, 8MB Fast RAM, 2GB eMMC

Permalänk
Medlem
Skrivet av _genki:

KK som skapat motorn är en electroingenjör, och har arbetat professionellt med assemblerkod under 20+års tid. och är en mycket aktiv spelare i Atari-demoscenen. Dread-motorn är cross-platform och fungerar även på Atari ST (finns även en MegaDrive-fork). Mannen är sinnessjukt tekniskt kompetent. Däremot saknar han känsla för färg och design. Så mycket av kod-förändringar kring detta fick jag och John bistå med. Dessvärre fick KK lägga motor-utvecklingen åt sidan p.g.a. NDA när han fick jobb hos Epic för att arbeta på Unreal motorn. (synd, men hans lön mer än fyrdubblades så jag förstår)

När han och jag slutade, så fortsatte John med projektet i den sista stabila spelmotor-versionen. Numera heter det projektet "Grind". Det är supersynd att KK inte kunde fortsätta nu när han arbetar hos Epic. När vi slutade hade han en experimentell version av motorn som klarade diverse höjd-värden (snarare än presets på 64, 92 och 128) man kunde med andra ord göra små pixel-höga höjdskillnader vilket möjliggjorde bl.a. trappor. Han hade även funktioner som gjorde sluttningar möjliga, hissar och teleportar... Detta kom aldrig med i "Grind"

Som kuriosa, mannen har bl.a. skapat det här 4kB demot-, han kom på 1:a plats i tävlingen 4K för PC.
https://www.youtube.com/watch?v=K8J7qfzEWZs

Dread har ju mer likheter med Doom, och använder sig faktiskt av Doom Builder för att skapa banor. Men ja, grundproblematiken är ju där. Dread tjänar ju en hel del cykler på att grafiken är halverad i höjdled, och egentligen även sidled. så 160x100 i upplösning. Nu var det så länge sedan att jag inte minns exakt hur KK löste det, men han lyckades praktiskt taget trolla dit vartannan pixel i sidled i texture-mapping pipelinen. vilket höjde texturerings-upplösningen till 320x100 (geometrin är dock fortfarande 160x100). Det går även att förskjuta vartanan pixel i sidled för ar att skapa illusionen av 320x200 pixlar... men i slutändan var vi överens om att den typen av dithering-effekt fick spelet att se suddigare ut och ifall texturer designades efter 320x100 så gav det bättre visuellt resultat.

Man tackar för lite ytterligare info! Själv har gjort lite grundläggande C/Asm mot VGA (drivet av en 486:a), men de chippen är ju "chunky" så det är rätt raka rör vad gäller skrivning till framebuffern.

Måste säga att det 4k-demot var nåt helt enastående, grymt läckert.

Visa signatur

|[●▪▪●]| #Monster Battle Station(tm)#: Ryzen 3700X >-< GB-X570-AE >-< 32GB RAM >-< RTX 4070S >-< Crucial 2TB SSD |[●▪▪●]|

Permalänk
Medlem
Skrivet av meklubba:

- Spelföretagen kan utnyttja senaste tekniken vad gäller ray-tracing och Ai implementering.
- Grafikkortstillverkarna kan sätta en ny lägsta nivå för realtids renderad dator grafik (Next-gen).
- Och spelarna.. ja dom.. dom hänger med!

dvs. Allt är som vanligt. Som det alltid vart

Om man helt ignorerar att AI-bildrutor inte är en prestandaökning, "som det alltid vart" fram tills nu.

Permalänk
Hedersmedlem
Skrivet av Drenmi:

Om man helt ignorerar att AI-bildrutor inte är en prestandaökning, "som det alltid vart" fram tills nu.

AI-uppskalning samt AI-ray reconstruction ger prestandaökning precis som det "alltid vart" dock. Även kommande Reflex 2. Enbart FG är undantaget.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Thomas:

AI-uppskalning samt AI-ray reconstruction ger prestandaökning precis som det "alltid vart" dock. Även kommande Reflex 2. Enbart FG är undantaget.

AI-uppskalning kostar det också. Man börjar med en 1080p bild, väljer att uppskala den till 4k för en kostnad av 1-2ms, upplösning ökar, framerate sjunker, latency ökar. Användarinterfacet är utformat på ett sätt så att man tror att man får en prestandaökning men från en teknisk aspekt är det inte så. Däremot får du bättre bild, för de som håller med om att den genererade 4k bilden ser bättre ut än den ursprungliga 1080p bilden.

Visa signatur

- 5090