Nvidias uppskalningsteknik DLSS blir gratis plugin för Unreal Engine 4

Permalänk
Melding Plague

Nvidias uppskalningsteknik DLSS blir gratis plugin för Unreal Engine 4

Grafikjätten släpper järngreppet om AI-tekniken och gör det fritt fram att implementera den med spelmotorn Unreal Engine 4.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Smart drag, kommer svida för AMD om DLSS blir standard i spel och de står utan svar.

Visa signatur

7800X3D//4090
MINT XFCE // W11 🤮

Permalänk
Medlem

Good guy Nividia visar vart skåpet ska stå.

Undra hur vissa supporters, läderjacke-haters, ska kunna vrida detta till något negativt?

Permalänk
Medlem

Precis vad som behövs för att göra tekniken mer använd och relevant, kan man hoppas på liknande implementering i andra spelmotorer?

Permalänk
Medlem

Nvidia FTW!
AMD: Oh, vi måste också...

Permalänk
Avstängd

Vilken sjukt överdriven bild, 4k ser ju ut som typ 480p och 1080p ser ut som youtube 240p hahaha

Permalänk
Medlem
Skrivet av lindahlj:

Good guy Nividia visar vart skåpet ska stå.

Undra hur vissa supporters, läderjacke-haters, ska kunna vrida detta till något negativt?

Good guy? Du missar alltså de uppenbara finansiella incitamenten och chansen att trycka till där AMD står utan svar? Fanboy much?? Säger inte att AMD inte skulle gjort samma sak om rollerna vore ombytta men det här är verkligen inte något exempel på en god gärning, snarare är det bieffekten av ett drag som främst kommer att gynna Nvidia ekonomiskt.

Visa signatur

7800X3D//4090
MINT XFCE // W11 🤮

Permalänk
Hedersmedlem
Skrivet av lindahlj:

Good guy Nividia visar vart skåpet ska stå.

Undra hur vissa supporters, läderjacke-haters, ska kunna vrida detta till något negativt?

Det är ju ändå ganska lätt: det är en proprietär teknik. Varken AMD eller Intel kommer kunna använda den.

Skrivet av Klubba:

Vilken sjukt överdriven bild, 4k ser ju ut som typ 480p och 1080p ser ut som youtube 240p hahaha

Det är rejält inzoomat.
Originalbilderna:
1080p
4K native
8K DLSS

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av Klubba:

Vilken sjukt överdriven bild, 4k ser ju ut som typ 480p och 1080p ser ut som youtube 240p hahaha

De måste ha gjort nånting väldigt rätt, om du kan gissa dig till att skillnaden är 2x bara genom att titta på bilderna.

Permalänk
Snusfri

Smart drag av Nvidia, UE är en av de mest använda GE's för mindre aktörer och detta kan få över än fler och anamma DLSS.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem
Skrivet av lindahlj:

Good guy Nividia visar vart skåpet ska stå.

Undra hur vissa supporters, läderjacke-haters, ska kunna vrida detta till något negativt?

skulle nog vända på det här. Det visa bara hur undermålig DLSS har sprid sig än så länge. Mycket någ beroende på sin proprietär natur.
Så nu efter många studion och spel har inte brytt sig om att implementera det försöker man nu locka med detta samt låsa utvecklare till UE4.
Istället för att gör massa sån här trams både Nvidia kanske lägga pengar på en öppen lösning som kan implementeras av alla om dem nu verkligen vill att alla ska adaptera det. men vi känner ju alla till hur nissen i skinjackan tänker och gör saker.

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Skrivet av Thomas:

Det är ju ändå ganska lätt: det är en proprietär teknik. Varken AMD eller Intel kommer kunna använda den.

Det är rejält inzoomat.
Originalbilderna:
1080p
4K native
8K DLSS

Äkta 4K ser mycket skarpare ut än 8k DLSS..

Visa signatur

Ketchup är en smoothie.

Permalänk
Medlem

Spännande, får hoppas massa spelutvecklare gör en uppdatering för det i sina spel. Såg att Gdofall körde UE4, hade varit askul om de implementerade stöd för det.

Skrivet av SockerfriKetchup:

Äkta 4K ser mycket skarpare ut än 8k DLSS..

När jag zoomar in ser ju 8K bra bättre ut. Har du en 8K display eller var zoomar du in som du tycker ser sämre ut?

Permalänk
Medlem

Nvidia går för en gångs skull händelserna i förväg. Är de oroliga för amds version?

Permalänk
Hedersmedlem
Skrivet av lindahlj:

Good guy Nividia visar vart skåpet ska stå.

Undra hur vissa supporters, läderjacke-haters, ska kunna vrida detta till något negativt?

Jag vet inte om det är så mycket good guy över att ha en proprietär teknik som konkurrenterna inte får använda.

Det skulle väl kunna liknas vid att g-sync skärmar bara fick tillverkas av exempelvis ASUS under tiden nvidia byggde färdigt denna teknik. Och nu när det är klart får alla skärmtillverkare bygga g-sync skärmar.

MEN!
AMD/Intel kan fortfande inte använda der här. Konkurrenterna är fortsatt utlåsta från att använda DLSS.
På samma sätt som för g-sync.

Själv gillar jag DLSS. Iaf 2.0 ;). Använder gärna denna teknik själv när den finns tillgäng.

Men jag har faktiskt svårt att se din poäng här.
Det är en låst teknik som gått ur betastadiet. Jahapp liksom. Det är ganska normalt att produkter/tjänster testas begränsat och att de senare lanseras på bredare front.
Jag ser inte riktigt "good guy"elementet här. Snarare business as usual.

Och ännu en låst teknik från nvidia som inte erbjuder en gemensam standard för hela branchen-.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Lego Master
Skrivet av Thomas:

Det är ju ändå ganska lätt: det är en proprietär teknik. Varken AMD eller Intel kommer kunna använda den.

Det är rejält inzoomat.
Originalbilderna:
1080p
4K native
8K DLSS

8K alltså. Jävlar i min låda.
Men jag gissar att 16K kommer vara en grej innan jag skaffar nånting som kan visa 8K ens.

Visa signatur

* Vänsterhänt högerskytt med tummen mitt i handen.
* A franchises worst enemies are its biggest fans.
* 🖥️ i5 12600K | Z690 | 32GB | RTX 3070 | Define R6 | 48" 4K OLED | Win11 | 💻 Surface Go 3
* ⌨️ G915 Tactile | ⌨️ G13 | 🖱️ G502 X | 🎧 Pro X | 🎙️ QuadCast | 📹 EOS 550D | 🕹️ X52 Pro | 🎮 Xbox Elite 2
* 📱 Galaxy Fold4 | 🎧 Galaxy Buds Pro | ⌚ Galaxy Watch5 Pro | 📺 65" LG OLED | 🎞️ Nvidia Shield

Permalänk
Medlem
Skrivet av Klubba:

Vilken sjukt överdriven bild, 4k ser ju ut som typ 480p och 1080p ser ut som youtube 240p hahaha

det är ju så det ser ut längst in i bilden på en idag upplösning om 1080p 4k 8k. Det är detaljrikedomen i kulisserna som är intressanta, längst fram i bild ser ju 1080p ändå OK ut men i fjärren inte så bra. Så de är väl inte så konstigt?

Visa signatur

7800x3D | Asus Strix 4090 OC | x670 MSI Pro WIFI | 6000Mhz 32GB CL30 DDR5 | SN850X 2GB | NH-DH15 Chromax Black| Fractal North Mesh | TUF 1000W Gold | Samsung Neo G8 32' 4K 240hz | Mac M2 |

Permalänk
Medlem
Skrivet av firstofmay:

Good guy? Du missar alltså de uppenbara finansiella incitamenten och chansen att trycka till där AMD står utan svar? Fanboy much?? Säger inte att AMD inte skulle gjort samma sak om rollerna vore ombytta men det här är verkligen inte något exempel på en god gärning, snarare är det bieffekten av ett drag som främst kommer att gynna Nvidia ekonomiskt.

Alla företag är till för ett tjäna pengar och konkurrera. Detta är positivt, AMD kommer säkert släppa någon motsvarande teknik (har för mig det är på G redan)

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem

Riktigt dåligt. bättre om alla aktörer använde sig av teknikneutrala metoder för att ge kunden valfrihet och inte låsa in dem i specifika ekosystem. Alla gamers blir lidande av sådant här.

Visa signatur

| Corsair Obsidian 1000D | AMD Ryzen 9 5950x 3.4 GHz(5 GHz boost) med Corsair iCue H170i Elite Capellix | Asus ROG Crosshair VIII Dark Hero | G.Skill Trident Z neo, 2x16GB 3600MHz C16 | ROG Strix LC GeForce 3090 Ti 24GB | 1x Seagate FireCuda 520 1TB, 1x Samsung 850 EVO 250GB, 1x Samsung 970 EVO 1TB, 2x 1TB HDD, 1x Seagate Ironwolf 16TB HDD | Corsair AX860i | ASUS PG279Q & ASUS XG27AQM|

Permalänk
Hedersmedlem
Skrivet av SockerfriKetchup:

Äkta 4K ser mycket skarpare ut än 8k DLSS..

Äkta 4K är 2.25 gånger fler renderade pixlar än 8K DLSS (uppskalat från 2560x1440) så det vore inte så konstigt.

Jag håller dock inte med. Har jag de två bilderna i samma storlek ser 8K-bilden bättre ut. Även 1:1 ser 8K bättre ut. Jag kan läsa texten på tidningarna längst till vänster i 8K-bilden men inte i 4K-bilden (t ex "FOOD"-tidningen längst ner ser man tydligt namn på ingredienser som är nästan hopplösa i 4K-bilden).

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Skrivet av wargreymon:

Spännande, får hoppas massa spelutvecklare gör en uppdatering för det i sina spel. Såg att Gdofall körde UE4, hade varit askul om de implementerade stöd för det.

När jag zoomar in ser ju 8K bra bättre ut. Har du en 8K display eller var zoomar du in som du tycker ser sämre ut?

Jag har en 1440P 10bit skärm, draken på ''8K'' ser med suddig ut än den i äkta 4k...ej utzoomat läge.

Men det kan ju vara att det inte är exakt samma bild också.

Visa signatur

Ketchup är en smoothie.

Permalänk
Medlem
Skrivet av BrottOchStraff:

Alla företag är till för ett tjäna pengar och konkurrera. Detta är positivt, AMD kommer säkert släppa någon motsvarande teknik (har för mig det är på G redan)

Jo jag vet... Skillnaden blir ju idag ofta vad man tar för etiska ståndpunkter och vilka effekter de har, som att rycka kort för reviewers som inte trycker på tillräckligt för hur fantastiskt ray tracing är eller när MSRP är en siffra tagen rakt ur fantasivärlden - pick your poison liksom. Är medveten om att AMDs teknik är nära att bli verklighet och jag hoppas att de kör på samma upplägg, deras synsätt på open source är att föredra imo.

Visa signatur

7800X3D//4090
MINT XFCE // W11 🤮

Permalänk
Medlem

Grymt! DLSS är det bästa som hänt sedan Gsync i grafikkortsvärlden.

Visa signatur

13600KF, RTX 4070 FE, B760I, 32GB DDR4, NR200P

Permalänk
Medlem
Skrivet av lambdan:

Grymt! DLSS är det bästa som hänt sedan Gsync i grafikkortsvärlden.

Tycker alla verkligen såhär?

Jag har bara använt DLSS en gång och det var i cyberpunk. Stängde av det ganska snabbt för det förstörde verkligen grafik-kvalitén. Var så uppenbart där DLSS var aktivt och textuerna såg ut som "very low"

Kan detta ha med att man spelar i mega-ultrawide och det inte är lika optimerat?

Har inte använt dlss sen dess för det såg helt enkelt ut som skit.

Visa signatur

What evah! i'll do what i want! | Det stavas väl inte väll...såvida du inte ska skriva välling.
"Det var väl bra"

Permalänk
Medlem
Skrivet av SockerfriKetchup:

Jag har en 1440P 10bit skärm, draken på ''8K'' ser med suddig ut än den i äkta 4k...ej utzoomat läge.

Men det kan ju vara att det inte är exakt samma bild också.

Till och med jag ser skillnad, säker på att du inte blandat ihop bilderna?

Däremot skulle jag aldrig någonsin märka av skillnaden om jag väl var i spelet med alla rörelser och dyl.

Skrivet av Ceogar:

Tycker alla verkligen såhär?

Jag har bara använt DLSS en gång och det var i cyberpunk. Stängde av det ganska snabbt för det förstörde verkligen grafik-kvalitén. Var så uppenbart där DLSS var aktivt och textuerna såg ut som "very low"

Kan detta ha med att man spelar i mega-ultrawide och det inte är lika optimerat?

Har inte använt dlss sen dess för det såg helt enkelt ut som skit.

Kanske är det inte optimerat men det beror också på vad du har för inställning. Att ha ”performance” eller vad det nu kallades i Cyberpunk gav en märkbar försämring, om än en ganska liten sådan enligt mig. Med ”quality” märkte jag ingen skillnad förrän jag stannade upp och granskade miljön.

Sen vet jag ju dock att mina ögon inte är de bästa i alla lägen så det är möjligt att du såg större skillnad än vad jag gjorde.

Permalänk
Medlem
Skrivet av firstofmay:

Good guy? Du missar alltså de uppenbara finansiella incitamenten och chansen att trycka till där AMD står utan svar? Fanboy much?? Säger inte att AMD inte skulle gjort samma sak om rollerna vore ombytta men det här är verkligen inte något exempel på en god gärning, snarare är det bieffekten av ett drag som främst kommer att gynna Nvidia ekonomiskt.

Skrivet av Bernd_P1:

Istället för att gör massa sån här trams både Nvidia kanske lägga pengar på en öppen lösning som kan implementeras av alla om dem nu verkligen vill att alla ska adaptera det. men vi känner ju alla till hur nissen i skinjackan tänker och gör saker.

Skrivet av Alexraptor:

Riktigt dåligt. bättre om alla aktörer använde sig av teknikneutrala metoder för att ge kunden valfrihet och inte låsa in dem i specifika ekosystem. Alla gamers blir lidande av sådant här.

Skrivet av firstofmay:

Jo jag vet... Skillnaden blir ju idag ofta vad man tar för etiska ståndpunkter och vilka effekter de har, som att rycka kort för reviewers som inte trycker på tillräckligt för hur fantastiskt ray tracing är eller när MSRP är en siffra tagen rakt ur fantasivärlden - pick your poison liksom. Är medveten om att AMDs teknik är nära att bli verklighet och jag hoppas att de kör på samma upplägg, deras synsätt på open source är att föredra imo.

Men boohooo / sad face. Vad tråkigt att Nvidia gör sin teknik lättare tillgänglig för utvecklare, precis som alla möjliga företag gör på en daglig basis som grund för deras fortsatta verksamhet.

Varför i hela friden ska Nvidia investera och bära kostnaden för något som deras konkurrent sedan direkt får använda gratis? Finns ingen logik i det över huvud taget. För mig ser det uppenbart ut att snacket vore annorlunda om denna situation handlade om AMD. Jag gillar att AMD på riktigt börjar konkurrera med gröna och blåa laget då det är hälsosamt för konsumenter så jag skriver inte detta från något Nvidia-läger. Jag skriver detta pga Sweclockers-forumets mottagandet av nyheten tas med en förståelse för verkligheten på.. ja jag vet inte vad jag ska säga...

Om företag ska bjuda på sin egen investering till samtliga andra så skulle vi ha en utvecklingstakt och ekonomi som Soviet Russia.

Skrivet av BrottOchStraff:

Alla företag är till för ett tjäna pengar och konkurrera. Detta är positivt, AMD kommer säkert släppa någon motsvarande teknik (har för mig det är på G redan)

Exakt.

Permalänk
Medlem
Skrivet av lambdan:

Grymt! DLSS är det bästa som hänt sedan Gsync i grafikkortsvärlden.

G-Sync is overrated.

Visst funkar det bra om du inte har ett grafikkort som är kraftigt nog att driva spelen vid de högre frekvenserna. Men vid högre frekvenser så är skillnaden mellan G-Sync On och G-Sync Off, obefintlig.

G-Sync är också ett solklart exempel på konsumentfientligt beteende av Nvidia, då de har försökt att låsa fast folk i Nvidia grafikkort. Visserligen kan "nya" G-Sync bildskärmar köras med AMD grafikkort, men oss med äldre G-Sync skärmar sitter i skiten om vi inte vill köra Nvidia grafikkort.

Visa signatur

| Corsair Obsidian 1000D | AMD Ryzen 9 5950x 3.4 GHz(5 GHz boost) med Corsair iCue H170i Elite Capellix | Asus ROG Crosshair VIII Dark Hero | G.Skill Trident Z neo, 2x16GB 3600MHz C16 | ROG Strix LC GeForce 3090 Ti 24GB | 1x Seagate FireCuda 520 1TB, 1x Samsung 850 EVO 250GB, 1x Samsung 970 EVO 1TB, 2x 1TB HDD, 1x Seagate Ironwolf 16TB HDD | Corsair AX860i | ASUS PG279Q & ASUS XG27AQM|

Permalänk
Medlem
Skrivet av lambdan:

Grymt! DLSS är det bästa som hänt sedan Gsync i grafikkortsvärlden.

Kunde inte bry mig mindre. När jag spelar sitter jag inte och beundrar enskilda pixlar, jag är mer intresserad av handlingen.

Visa signatur

There are two kinds of people: 1. Those that can extrapolate from incomplete data.
Min tråkiga hemsida om mitt bygge och lite annat smått o gott: www.2x3m4u.net

Permalänk
Medlem

Jag förstår inte varför folk "hatar" på just denna ide.

Fanboys aside

Varför ska Nvidia opensourca teknik de har investerat miljontals dollar på? Det låter ju inte rimligt att ett företag investerat mycket pengar ska helt plötsligt göra det öppet för en konkurrent att använda. Tänka dig i samma situation att du jobbat järnet av dig på ett projekt och sen kommer din polarae och blir sur på dig för att du inte delar med dig (trots att denna person inte lagt något arbete själv).

AMDs tanke med att sitta och open sourca är inte för "Vi tänker på alla" utan det är mer att de inte har råd att kunna upprätthålla support och hjälpa företag att implementera deras tekniker. De kör ju mer på att open sourcea och sen hoppas på att tillverkare använder sig av det. Vi kan ju också se att det tankesättet inte har fungerat så bra.

Ingen tillverkare vill lägga ner extra tid för att något är open source, om dom får hjälp och support från ett företag som har en closed source teknik så kommer de ta åt sig hjälpen. I flera år har AMD inte gjort ett piss med att hjälpa och implantera mer AMD vänlig kod i UE 4 och för det ska vi vara sura på Nvidia för att de gör det men inte AMD?

Visst i längden så lär vi konsumenter bli drabbade då det är tråkigt när mer stängd teknik blir introducerad. Men är det Nvidias fel eller AMD? För mig så tycker jag att AMD borde ändra riktning och börja supporta mer tillverkare med att optimera deras produkter.

Permalänk
Medlem
Skrivet av Ceogar:

Tycker alla verkligen såhär?

Jag har bara använt DLSS en gång och det var i cyberpunk. Stängde av det ganska snabbt för det förstörde verkligen grafik-kvalitén. Var så uppenbart där DLSS var aktivt och textuerna såg ut som "very low"

Kan detta ha med att man spelar i mega-ultrawide och det inte är lika optimerat?

Har inte använt dlss sen dess för det såg helt enkelt ut som skit.

Intressant, den enda skillnaden jag märker med DLSS på eller av i CP77 är att FPSen blir halverad om jag stänger av det. Jag kan inte se någon visuell skillnad. Detta med ett 3070 då, har du också ett kort i 30-serien?