Intel Xe Super Sampling – uppskalning med maskininlärning för Arc

Permalänk
Melding Plague

Intel Xe Super Sampling – uppskalning med maskininlärning för Arc

Intels kommande AI-uppskalning för grafik ser ut att likna Nvidias DLSS på många punkter. Temporal uppskalning kombineras med maskininlärning.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Intressant ändå att intel utvecklar en uppskalningslösning som kräver dedikerad hårdvara. Det kanske visasig bli framtiden inom AA till slut. Om så är fallet är vi plötsligt i en situation där valet av grafikkort kan påverka bildkvalitén.

Permalänk
Konsolpleb 🕹
Skrivet av DevilsDad:

Intressant ändå att intel utvecklar en uppskalningslösning som kräver dedikerad hårdvara. Det kanske visasig bli framtiden inom AA till slut. Om så är fallet är vi plötsligt i en situation där valet av grafikkort kan påverka bildkvalitén.

Det trevliga med XESS är ju att den verkar ha en fallback för produkter som inte har Intels dedikerade hårdvaruresurser. Dock krävs hyffsat moderna kort som Vega och GTX 1000.

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av DevilsDad:

Intressant ändå att intel utvecklar en uppskalningslösning som kräver dedikerad hårdvara. Det kanske visasig bli framtiden inom AA till slut. Om så är fallet är vi plötsligt i en situation där valet av grafikkort kan påverka bildkvalitén.

Det handlar nog mycket om att Intel vill ha hårdvara för maskininlärning i grafikkorten, eftersom det är ett område de satsar mycket på. Och då faller det sig ju naturligt att även utnyttja den hårdvaran för uppskalning.

Permalänk
Medlem

Får såna sjuka flashbacks när jag ser Intel göra presentationer. XESS loggan påminner mig om tidigt 2000-tal när Sound Blaster fortfarande var något att räkna med (tänk http://www.ixbt.com/multimedia/creative/x-fi/sbxfi.png ). Sen älskar jag det fina diagrammet som så tydligt och snyggt på bästa Office Space manér visar varför just XESS är både snabbt och bäst (i.e. den guldiga loggan i översta högra kanten). Det är något så märkligt att se denna svindyra avancerade teknologi presenteras med grafik som Britt-Marie 45 kunnat slänga ihop på fikarasten.

Gå in på Nvidia's motsvarande sida för DLSS och allt skriker ändå gaming. Intel's grafikkort och allt material runt om skriker beige cubicle. Hoppas dock de blir bra grejer och det är intressant såklart 😇

Permalänk
Konsolpleb 🕹
Skrivet av Pettor:

Får såna sjuka flashbacks när jag ser Intel göra presentationer. XESS loggan påminner mig om tidigt 2000-tal när Sound Blaster fortfarande var något att räkna med (tänk http://www.ixbt.com/multimedia/creative/x-fi/sbxfi.png ). Sen älskar jag det fina diagrammet som så tydligt och snyggt på bästa Office Space manér visar varför just XESS är både snabbt och bäst (i.e. den guldiga loggan i översta högra kanten). Det är något så märkligt att se denna svindyra avancerade teknologi presenteras med grafik som Britt-Marie 45 kunnat slänga ihop på fikarasten.

Gå in på Nvidia's motsvarande sida för DLSS och allt skriker ändå gaming. Intel's grafikkort och allt material runt om skriker beige cubicle. Hoppas dock de blir bra grejer och det är intressant såklart 😇

haha jag gillart

den här är också en gammal favorit på tal om dåliga presentationer:
http://www.graphicshardware.org/previous/www_1999/presentatio...
(Om någon av er känner Petri Nordlund så PM:a mig, har försökt få tag på honom ett bra tag nu )

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av UndaC:

haha jag gillart

den här är också en gammal favorit på tal om dåliga presentationer:
http://www.graphicshardware.org/previous/www_1999/presentatio...
(Om någon av er känner Petri Nordlund så PM:a mig, har försökt få tag på honom ett bra tag nu )

Than you

Fel smiley :)
Permalänk
Medlem

Uttalas det "excess"? Jag vet inte om överskott låter så flashigt i grafiksammanhang

Visa signatur

Skriv jätteintressant information här.

Permalänk
Medlem
Skrivet av UndaC:

haha jag gillart

den här är också en gammal favorit på tal om dåliga presentationer:
http://www.graphicshardware.org/previous/www_1999/presentatio...
(Om någon av er känner Petri Nordlund så PM:a mig, har försökt få tag på honom ett bra tag nu )

Haha underbar presentation. Saknar ändå tider som denna när man hade produkter som kunde heta Glaze3d.

Permalänk
Medlem

vet inte om jag riktigt gillar att dom väljer att satsa på egen teknik här, så att det nu kommer finnas ytterligare ett alternativ.
Tror vi kunder hade tjänat på om dom tex hade gått ihop med AMD och kört open source spåret.

Permalänk
Medlem
Skrivet av Varg:

Uttalas det "excess"? Jag vet inte om överskott låter så flashigt i grafiksammanhang

Tror att det ska uttalas som en förkortning, "ex-e-ess-ess".

Permalänk
Konsolpleb 🕹
Skrivet av fadm:

Tror att det ska uttalas som en förkortning, "ex-e-ess-ess".

Xe ska uttalas "see" enligt Intel själva

Så see ess ess

Eller "CSS" för att förvirra alla som bygger hemsidor tex

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av UndaC:

Xe ska uttalas "see" enligt Intel själva

Så see ess ess

Eller "CSS" för att förvirra alla som bygger hemsidor tex

Hm, har för mig att jag sett någon video för ett tag sen som förklarar hur och varför det uttalas som jag trodde, men kan ju ha fel så klart. Ska försöka leta fram.

Permalänk
Konsolpleb 🕹
Skrivet av fadm:

Hm, har för mig att jag sett någon video för ett tag sen som förklarar hur och varför det uttalas som jag trodde, men kan ju ha fel så klart. Ska försöka leta fram.

Oavsett vad tanken är så kommer ju folk säga "Ex Ee Ess Ess" i slutändan tror jag

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av UndaC:

Oavsett vad tanken är så kommer ju folk säga "Ex Ee Ess Ess" i slutändan tror jag

Kan tänka mig det. Hittade på den: https://youtu.be/3o3-yxUwjSQ

Känns trovärdigt, men den är cirka ett år gammal. Intel kanske senare har klargjort "officiell" pronunciation till det du säger. Vad vet jag.

Permalänk

Om kameran rör dig i ett "jitter" som det illustreras så kan slutresultatet bli bättre än tidigare varianter då man på ett par bildrutor i bästa fall kan återskapa 100% av full upplösning. Bra med konkurrens som driver på utvecklingen

Permalänk
Konsolpleb 🕹
Skrivet av fadm:

Kan tänka mig det. Hittade på den: https://youtu.be/3o3-yxUwjSQ

Känns trovärdigt, men den är cirka ett år gammal. Intel kanske senare har klargjort "officiell" pronunciation till det du säger. Vad vet jag.

Jag går på vad @jacob lurat i mig
Så om han har fel måste jag hämnas!

Visa signatur

240p är livet

Permalänk
Medlem

Demovideo på YT, bara 1080p tyvärr.

Permalänk
Inaktiv

Ett alternativt uttal som verkar gå runt lite är SSeX.

Permalänk
Konsolpleb 🕹
Skrivet av Fulci:

Demovideo på YT, bara 1080p tyvärr.
https://www.youtube.com/watch?v=Hxe4xFKMqzU

Ojdå. Hon skräder inte orden när hon påstår att deras 1080p uppskalat till 4K är samma kvalitet som native.

För referens motsvarar det här alltså DLSS Performance i ursprungsupplösning.

Edit: där fick vi raka besked om uttalet också ja

Visa signatur

240p är livet

Permalänk
Medlem

Videon är privat nu

Visa signatur

Att förespråka Mac på Swec är som att förespråka hybridbilar på en raggarträff i Mora.

Permalänk
Konsolpleb 🕹
Skrivet av Trihxeem:

Videon är privat nu

Haha det gick snabbt. De kanske insåg att det kan ligga dem i fatet om de påstår att deras uppskalade 1080p är ”kvalitetsmässigt det samma som 4K”

Edit: Hmm de har laddat upp samma video igen ser jag nu. Märkligt.

Visa signatur

240p är livet

Permalänk
Medlem

Är det inte lite lustigt hur Nvidia först blir av med svindyra lösningen gsync, eftersom freesync funkar lika bra -- sedan det här? Tycker mig bara se ett mönster

Annat ordval /Vzano, Mod
Visa signatur

Asus B550E-Gaming / Ryzen 5900X stock / Corsair Vengeance 32GB 3600 MHz CL18 /
ASUS TUF 4080 Gaming OC / Samsung 980 PRO 2TB PCI-Ev4 + 2TB WD Black NVME PCI-Ev3 / Corsair RM850x v2 / Acer Predator XB273UGX 1440p 270 Hz G-Sync / Phantek P500A / Arctic Cooling LF II 240mm / Evo 4 / Sennheiser IE 300 / Rode NT1-A
Synology 1621+ 6*16 / 1513+ 5*8 / LG CX 65" / XBox Series X
Ownit > Bahnhof

Permalänk
Medlem
Skrivet av KroesusSork:

Är det inte lite lustigt hur Nvidia först blir av med svindyra lösningen gsync, eftersom freesync funkar lika bra -- sedan det här? Tycker mig bara se ett mönster

Ser mer ett mönster att Nvidia utvecklar nya coola teknologier före alla andra, där de andra sedan kopierar Nvidia

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Konsolpleb 🕹
Skrivet av CubaCola:

Ser mer ett mönster att Nvidia utvecklar nya coola teknologier före alla andra, där de andra sedan kopierar Nvidia

Jo det är väl lite svårt att se att AMD skulle slängt ihop FSR om det inte vore för DLSS. Och XeSS är ju extremt likt DLSS - dessutom har Intel anställd en av de största profilerna på Nvidia som arbetade med just DLSS

Angående freesync/g-sync så tror jag mer att det hade kommit i vilket fall till slut. Men att säga att freesync är lika bra är att ta i

Visa signatur

240p är livet

Permalänk
Medlem

det enda jag tycker är synd är ju att alla dessa konkurerande tekniker, om jag förstår det rätt, måste implementeras i spelen i sig. det är inte nån drivrutin av/på.

olika spel kommer implementera olika lösningar, eller alla. det kommer bli ett virrvarr.

önskar det var som att slå på MSAA eller liknande i spel, spel frågar drivisen om den har nån sorts supersampling, och låter dig slå på det.

2D element renderas til native (1440p, eller 4k osv), 3d renderas till en "1080p" space eller liknande som sedan skalas upp av gpun "transparant" för spelet.

Visa signatur

Xeon E5450@3.2ghz
9800GTX+

Permalänk
Datavetare
Skrivet av UndaC:

Jo det är väl lite svårt att se att AMD skulle slängt ihop FSR om det inte vore för DLSS. Och XeSS är ju extremt likt DLSS - dessutom har Intel anställd en av de största profilerna på Nvidia som arbetade med just DLSS

Angående freesync/g-sync så tror jag mer att det hade kommit i vilket fall till slut. Men att säga att freesync är lika bra är att ta i

Blir spännande att se hur "snälla" Intel kommer vara mot Nvidia med XeSS. Om jag förstått DP4a-instruktion:en korrekt så är det rätt mycket det bästa man man åstadkomma inom ramen av traditionella "GPU-kärnor" där det logiska slutresultatet är samma som Intel/Nvidia kan få med sina "tensor-kärnor".

Den blåa delen i denna graf visar kostanden för uppskalning

"tensor-kärnor" verkar göra det hela ungefär dubbelt så snabbt som DP4a + den svarta delen blir lite längre med DP4a då man stjäl lite kraft från GPU-kärnorna.

Lär inte finnas något tekniskt hinder att använda Nvidias tensor-kärnor i XeSS. Finns två sätt att se på detta från Intels sida

  • varför ge Nvidia fördelen av att också kunna accelerera XeSS med tensor-kärnor?

  • om XeSS använder tensor-kärnor även på Nvidias GPUer, vad är då poängen för spelutvecklare att använda DLSS (om vi nu utgår från att DLSS och XeSS ger likvärdigt resultat)?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Konsolpleb 🕹
Skrivet av Yoshman:

Blir spännande att se hur "snälla" Intel kommer vara mot Nvidia med XeSS. Om jag förstått DP4a-instruktion:en korrekt så är det rätt mycket det bästa man man åstadkomma inom ramen av traditionella "GPU-kärnor" där det logiska slutresultatet är samma som Intel/Nvidia kan få med sina "tensor-kärnor".

Den blåa delen i denna graf visar kostanden för uppskalning
https://cdn.sweclockers.com/artikel/bild/96620?l=eyJyZXNvdXJjZSI6IlwvYXJ0aWtlbFwvYmlsZFwvOTY2MjAiLCJmaWx0ZXJzIjpbInQ9YXJ0aWNsZUZ1bGwiXSwicGFyYW1zIjp7ImNhY2hlQnVzdGVyIjoiMjAyMTA1MDEifSwia2V5IjoiYTExOGEzZTNlZTJkNWMxZjNiNzRmNDUyMzk0N2MxYmQifQ%3D%3D
"tensor-kärnor" verkar göra det hela ungefär dubbelt så snabbt som DP4a + den svarta delen blir lite längre med DP4a då man stjäl lite kraft från GPU-kärnorna.

Lär inte finnas något tekniskt hinder att använda Nvidias tensor-kärnor i XeSS. Finns två sätt att se på detta från Intels sida

  • varför ge Nvidia fördelen av att också kunna accelerera XeSS med tensor-kärnor?

  • om XeSS använder tensor-kärnor även på Nvidias GPUer, vad är då poängen för spelutvecklare att använda DLSS (om vi nu utgår från att DLSS och XeSS ger likvärdigt resultat)?

Känslan är väl att Intel inte kommer baka in stöd för Tensor-kärnor helt enkelt

Man hade ju kunnat hoppas på att Intel passar över bollen till MS och Khronos och att de i sin tur bygger in stöd för tensor-kärnor också. Så kan uppskalningen helt enkelt använda det som är bäst för respektive produkt och ha en fallback till DP4a om dedikerade resurser saknas. Om en får drömma lite.

Angående graferna där så tror jag det är som det står i det finstilta: "konceptuell illustration". Dvs man kan nog inte dra någon slutsats om att XMX är dubbelt så snabbt som DP4a där (även om det inte låter som en omöjlighet på något sätt, bara att just den här grafen inte behöver betyda det)

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av UndaC:

Angående freesync/g-sync så tror jag mer att det hade kommit i vilket fall till slut. Men att säga att freesync är lika bra är att ta i

Det är alltid bättre att ta fram en öppen standard som alla aktörer kan följa. I det här fallet är det ju VRR från HDMI-standarden som borde varit grunden för G-sync från början. Nu fanns väl inte den standarden framme vilket gjorde att Nvidia kunde gotta sig åt sin egen variant för ett tag. Men dyra proprietära lösningar har en tendens att dö ut med tiden när konkurrenterna vill bygga egna tekniska lösningar som är billigare och bättre. Alla kan ju inte hitta på sin egen standard (freesync är väl det gyllene undantaget), så därför tas det fram en standard - vilket ju blir bättre för alla och inte minst billigare.

Själv sitter jag med en G-sync IPS-monitor som fungerar utmärkt med mitt RTX-kort. Men jag blir ju tvungen att byta skärm om jag byter grafikkortsmärke...

Permalänk
Medlem
Skrivet av KroesusSork:

Är det inte lite lustigt hur Nvidia först blir av med cp-dyra lösningen gsync, eftersom freesync funkar lika bra -- sedan det här? Tycker mig bara se ett mönster

Skrivet av CubaCola:

Ser mer ett mönster att Nvidia utvecklar nya coola teknologier före alla andra, där de andra sedan kopierar Nvidia

Skrivet av UndaC:

Jo det är väl lite svårt att se att AMD skulle slängt ihop FSR om det inte vore för DLSS. Och XeSS är ju extremt likt DLSS - dessutom har Intel anställd en av de största profilerna på Nvidia som arbetade med just DLSS

Angående freesync/g-sync så tror jag mer att det hade kommit i vilket fall till slut. Men att säga att freesync är lika bra är att ta i

Allt detta vet ni såklart, men jag måste. Blir lätt så jäkla svart-vit annars.

Detta handlar bara om vilken position företagen har på marknaden. AMD kan inte pracka proprietära lösningar på kunderna då de har en alldeles för svag ställning. Hade det varit omvänt hade AMD gjort som Nvidia och tvärtom. Intel kommer naturligtvis satsa på öppna lösningar till den dag de eventuellt når en andel av marknaden där de kan släppa proprietära lösningar som de kan låsa in kunderna med, men det kommer ta många generationer om det ens kommer inträffa.

Sedan är det inte så att AMD legat på latsidan heller. De har utvecklat och bidragit en hel del. Det är inte så att Adaptive Sync/Freesync bara utvecklades över en natt som svar på G-Sync, utan det var en del av DP-standarden som AMD insåg kunde användas. Nvidia såg det också givetvis, men med tanke på deras ställning så utvecklade de en egen scaler som de låste till sina egna produkter som var oändligt mycket bättre på den tiden det begav sig. Det är först nu det börjar komma Scalers som kan börja mäta sig med G-Sync (fortfarande laggar Freesync på FALD vad det verkar) och Nvidia har öppnat upp G-Sync iom det. SAM är ett liknande exempel där AMD ser att Resizable Bar kanske är något användbart (som de inte direkt "utvecklat"), Nvidia följer raskt där. Sedan finns det bidrag till API:er som Vulkan osv osv osv.

Det finns en massa exempel givetvis från alla tre företag som varit starkt bidragande. Oavsett vore det optimala att alla tre får en stark ställning på marknaden, då slipper vi nog en hel del av inlåsningarna från en stark aktör. Nvidia är totalt dominanta på PC-sidan, men AMD:s ställning är också garanterad med tanke på konsolerna. Nu hoppas jag Intel lyckas med detta, hade varit kanon!