Nej, ordered dithering är jag väldigt mycket för, eftersom det är förutsägbart, enkelt att hantera och ser relativt attraktivt ut även om det inte är filtrerat. Vad jag pratar om är hur UE andvänder "random noise" för ljus, skuggor, AO, transparens, material etc. och kräver helskärms TAA för att rensa upp bildkvalitén. Även om FFVII Remake är ett UE4-spel så kvarstår det samma renderingsproblem med Unreal Engine, motorn använder just lågkvalitativ "random noise" och blir helt beroende av helskräms TAA för att rensa upp bilden.
pixelshade.se/forums/sweclockers/UE-Noise.mp4
Ser ingen fördel med LODs? Prestanda? GPU-vänlig overdraw? Själv hade jag hellre sett att vi använder AI för att skapa verktyg som förenklar traditionella optimeringstekniker, man skulle kuna skapa tesseleringsflöden anpassat med "best practice" för att skapa så stor renderingsytor som möjligt... Vet inte ifall jag tycker att framtiden vilar i att man ska gissa pixlar i realtid och levera undermålig bildkvalité. Witcher4-videon visar bildskärpa som motsvarar 720p på PS5 (dock med högkvalitativ och stabil AA). trots att den är renderad i såkallad 4K (med uppskalning). Nanite skapar så pass mycket quad overdraw att enheter som inte klarar av 4K måste ofta utföra uträkningarna om och om igen... Tittar man på Steam Deck behöver GPUn exekvera runt 10x så många uträkningar per pixel vid rasterisering än vad som som hade behövts vid upplösningsanpassade LODs med stora välanpassade renderingsytor.
Inte för att FFVII Rebirth är ett Nanite-spel, men logiken är densamma. Hade karaktärsmodellerna LOD-anpassats för 720p istället för 4K hade man sett ett uppsving på 5-8ms utan visuell påtaglighet på enheten. Och detta gäller enbart huvudkaraktärerna i spelet. Missförstå mig inte, Epic gör jättehäftiga grejer med Unreal Engine... Men faktum kvarstår att nanite som system är anpassat för temporalt uppskalad 4K. Är det bara jag som tycker att bildkvalitén är på tok för låg? Är folk nöjda med att "4K" på PS5 har samma bildskärpa som 720p?
Det finns fortfarande utrymme för traditionell optimering, även för UE. Och framförallt borde AI användas för att exploatera detta. inte i realtid, men snarare under utvecklingen av spel. Som det ser ut idag kommer Epic att fasa ut traditionella pipelines i förmån för Nanite och Lumen. Och jag vet inte ifall jag är okej med det. Jag tycker att teknikerna är på tok för o-optimerade för att fungera för mer än cinematiska "open world"-spel
Svårt att jämföra motorer. Men jag uppskattar mycket mer hur Source2 renderar grafik i jämförelse mot UE5, sedan är den givetvis inte anpassad för "open world". men rent hur Valve har valt att hantera rendering. Den är högkvalitativ, erbjuder enorm prestanda, och allting ser riktigt bra ut även i högupplöst VR (vilket man inte kan säga om UE)