Intel Xe Super Sampling – uppskalning med maskininlärning för Arc

Permalänk
Datavetare
Skrivet av CubaCola:

Ser mer ett mönster att Nvidia utvecklar nya coola teknologier före alla andra, där de andra sedan kopierar Nvidia

Exakt, är bara en "marknadsledare" som som kan komma undan med att utveckla ny teknik och enbart erbjuda den på sina egna produkter.

Ett skolboksexempel på hur "utmanare" ska hantera fallet ser vi både hos AMDs FSR och Intels OneAPI. Båda har insikten att oavsett hur bra man gör detta kommer det vara rätt mycket DoA om man inte också stödjer marknadsledaren.

OneAPI är väldigt talande här, det må vara öppen källkod så alla kan lägga till stöd för "sin" GPU till GPGPU-delen av detta ramverk. Intel lägger självklart till stöd för sina GPUer, men de har också insikten att Nvidia lär ju knappast göra något i "onödan" här då de har sitt CUDA så Intel har också implementerat stöd för Nvidias GPUer.

Skrivet av UndaC:

Angående graferna där så tror jag det är som det står i det finstilta: "konceptuell illustration". Dvs man kan nog inte dra någon slutsats om att XMX är dubbelt så snabbt som DP4a där (även om det inte låter som en omöjlighet på något sätt, bara att just den här grafen inte behöver betyda det)

Sant, att göra några konkreta mätningar är att dra det för långt. Men faktisk prestanda kommer uppföra sig på det sättet som man visar då tensorkärnornas kraft är utöver det man har i de "vanliga" GPU-kärnorna medan DP4a behöver dela de "vanliga" kärnorna med resten.

Tror också att Intel skippar stödet för tensor-kärnor, vilket rimligen kommer ge XeSS mer uppförsbacke då Nvidia är med klar marginal "marknadsledare" för tillfället och när väl DLSS finns i en spelmotor är tröskeln att lägga in det i spel byggda på motorn väldigt låg (samma gäller i.o.f.s. även för XeSS så ligger på Intel att lägga stora resurser på att fixa XeSS stöd i så många spelmotorer som möjligt).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Yoshman @UndaC

Tolkar ni det inte som att det är det första steget mot en sådan lösning? Alltså att det blir en mer standardiserad lösning med en "fall back"?

Sedan har väl AMD snackat om att RDNA2 har en viss ML-kapacitet. Stämmer det?

Permalänk
Datavetare
Skrivet av Novdid:

@Yoshman @UndaC

Tolkar ni det inte som att det är det första steget mot en sådan lösning? Alltså att det blir en mer standardiserad lösning med en "fall back"?

Sedan har väl AMD snackat om att RDNA2 har en viss ML-kapacitet. Stämmer det?

Uppskalning med ML är framtiden, framförallt då det gör saker som ray-tracing långt mer åtkomligt. Ray-tracing må ge något bättre visuellt resultat, men den stora vinsten med tekniken är att den ger en rejäl kostnadsbesparing för spelutvecklare då det är allt mer tidsödande att få saker att se bra ut med "fuskljus" medan ray-tracing "just works!"

För att det ska bli standard måste nog ändå Microsoft och Khronos lägga in något som en del av deras respektive 3D APIer (DirectX och Vulkan).

Alla moderna GPUer har "viss ML-kapacitet", möjligen har RDNA2 något mer än DP4a men den saknar den "matris acceleration" som allt fler bygger in och som brukar vara det man kallar ML-acceleration. Nvidia/Intel har sina "tensor-kärnor", Apple, Qualcomm och Samsung har speciellt NPU-kisel i sina systemkretsar (prestandavinsten från NPU kan vara rätt rejäl, ML-assisterad bildmanipulering på M1 i program som Pixelmator Pro går riktigt snabbt mot Intel CPUer som saknar HW-stödet!). Framtida x86 och ARM64 CPUer kommer få speciella instruktioner just för matrisacceleration, så acceleration av ML kryper in överallt!

Kan dock inte påminna mig att ha läst något specifikt kring ML i RDNA2. RDNA2 har HW-acceleration av ray-tracing, något inte finns i tidigare kretsar från AMD.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Yoshman

Tack för svar. Angående det kring ML i RDNA2 så handlade det (efter en googling) om att Microsoft pratat om det rörande Series X. Som du säger, det är tyst om det från AMD. Jag hittar inget nu när jag googlat snabbt.

Fixat länken.
Permalänk
Medlem
Skrivet av Fulci:

Demovideo på YT, bara 1080p tyvärr.

Uppskalad från 540p...?

Skrivet av UndaC:

Känslan är väl att Intel inte kommer baka in stöd för Tensor-kärnor helt enkelt

Något av en definitionsfråga.
Tensor av första ordningen = vektor, och kärnor för vektorberäkningar har de gott om...

Permalänk
Datavetare
Skrivet av Novdid:

@Yoshman

Tack för svar. Angående det kring ML i RDNA2 så handlade det (efter en googling) om att Microsoft pratat om det https://news.xbox.com/en-us/2020/03/16/xbox-series-x-glossary/. Som du säger, det är tyst om det från AMD. Jag hittar inget nu när jag googlat snabbt.

Antar du menar det om DirectML?

Det man får hoppas är att framtida ML-baserad uppskalning i DirectX bygger på DirectML. DirectML är ett API som innehåller en rad funktioner relevanta för ML, men DirectML säger inget om hur detta API ska realiseras i HW.

Detta är HW-kraven för att DirectML ska fungera

  • AMD GCN 1st Gen (Radeon HD 7000 series) and above

  • Intel Haswell (4th-gen core) HD Integrated Graphics and above

  • NVIDIA Kepler (GTX 600 series) and above

  • Qualcomm Adreno 600 and above

Det trevliga med DirectML är att man som programmerare kan fokusera på problemet medan drivrutiner ser till att använda den underliggande HW på "optimalt sätt". Kör man DirectML på en GPU som saknar tensor-kärnor körs beräkningarna på de "vanliga" kärnorna, saker som DP4a kommer används om det finns. Kör man på en GPU med "tensor-kärnor" används dessa!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Musikälskare
Skrivet av UndaC:

Xe ska uttalas "see" enligt Intel själva

Så see ess ess

Eller "CSS" för att förvirra alla som bygger hemsidor tex

Då kanske dom kunde ha valt en preprocessor så som LESS eller SASS istället ^^

Visa signatur

❀ Monitor: ASUS Swift 27" @ 1440p/165Hz ❀ CPU: Ryzen 7700X ❀ Cooling: Corsair H170i ELITE 420mm ❀ GPU: MSI 3080 Ti SUPRIM X ❀ Memory: Corsair 32GB DDR5 Vengeance ❀ Motherboard: ASUS Crosshair X670E Hero ❀ M.2: Samsung 980 Pro ❀ PSU: Corsair HX1200 ❀ Chassi: Corsair 7000X ❀ Time Spy: 19 340

📷 Mina fotografier
🎧 Vad lyssnar du på just nu?

Permalänk
Medlem
Skrivet av Yoshman:

Antar du menar det om DirectML?

Det man får hoppas är att framtida ML-baserad uppskalning i DirectX bygger på DirectML. DirectML är ett API som innehåller en rad funktioner relevanta för ML, men DirectML säger inget om hur detta API ska realiseras i HW.

Detta är HW-kraven för att DirectML ska fungera

  • AMD GCN 1st Gen (Radeon HD 7000 series) and above

  • Intel Haswell (4th-gen core) HD Integrated Graphics and above

  • NVIDIA Kepler (GTX 600 series) and above

  • Qualcomm Adreno 600 and above

Det trevliga med DirectML är att man som programmerare kan fokusera på problemet medan drivrutiner ser till att använda den underliggande HW på "optimalt sätt". Kör man DirectML på en GPU som saknar tensor-kärnor körs beräkningarna på de "vanliga" kärnorna, saker som DP4a kommer används om det finns. Kör man på en GPU med "tensor-kärnor" används dessa!

Ett tilllägg som Sweclockers redan har nämnt är att DP4 instruktionen endast återfinns i nyare HW
Pascal (GTX1000 serien) från nVidia och Vega och nyare från AMD (alltså inte GCN1 och Polaris) för intel skulle jag gissa på att det är XE arkitekturen som gäller.

Antagligen går det att emulera DP4 på äldre ML kompatibel hårdvara men med ett straff i prestanda.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk

Väldigt spännande med uppskalning oavsett. Om spel kan renderas i 1080/1440p medans resterande beräkningsresurser kan användas till högre frame rate eller en "denser world" och sedan med hjälp av uppskalning få en skarp 4k bild som slutprodukt, det låter gott!

Permalänk
Medlem
Skrivet av KroesusSork:

Är det inte lite lustigt hur Nvidia först blir av med svindyra lösningen gsync, eftersom freesync funkar lika bra -- sedan det här? Tycker mig bara se ett mönster

Freesync fungerar verkligen inte lika bra.. haft båda freesync är mycket mycket sämre med flimmer hackningar i bilden m.m i flera stora titlar.

Permalänk
Medlem

Tycker det är najs att Intel körde mera på DLSS spåret med AI hårdvaru baserad uppskalning då jag tycker FSR är undermålig i slutresultat, t.o.m. DLSS och troligtvis XESS kan användas med 1080p t.o.m. där FSR fullständigt förlorar sin poäng. Dock finns det ju positiva aspekter till FSR också där kompabiliteten är mest väsentliga fördelen, enkel att applicera till spel. Så finns ju marknad för både varianterna men hade ju varit kul om alla standarder hade varit open source (Nvidia host) så att andra aktörer kan enkelt applicera stöd för teknikerna.

Visa signatur

Intel® Core i7-13700K @ 5.7/5.6GHz | ASRock Z690 Extreme | G.Skill Trident Z 32GB @ DDR4-3400 CL14 | Samsung EVO series M.2 + Sata SSDs 2TB | Intel Arc A750 | SuperFlower Titanium 1000W | Gigabyte M32Q 32"/1440p 165Hz | Arctic Freezer II 360 AIO | Phanteks P500A D-RGB | Windows 10 & 11 x64 Professional

Permalänk
Medlem
Skrivet av UndaC:

Haha det gick snabbt. De kanske insåg att det kan ligga dem i fatet om de påstår att deras uppskalade 1080p är ”kvalitetsmässigt det samma som 4K”

Edit: Hmm de har laddat upp samma video igen ser jag nu. Märkligt.

https://youtu.be/Y9hfpf-SqEg

Fast den korta videon är ju bara ett urklipp ur den totala längre presentationen som ändå låg ute igår, så det fanns väl ingen anledning att ta bort det korta klippet egentligen. Påståendet var ju detsamma både i den längre och den kortare versionen.

Blir däremot lite konfunderad över luddigheten i terminologin i förstoringsbilderna.

När de skriver "2x magnification", menar de verkligen att de förstorat bilden till dubbla bildytan, dvs en förstoring med roten ur 2 i varje led? Känns ju mer troligt att de förstorat den 2 gånger i både x- och y-led, dvs 4x förstoring av bildytan? Motsvarande för "4x magnification", är det 2x i x- och y-led alltså 4x, eller 4x i varje dimension, för en total förstoring på 16x?

För övrigt, just i deras "4x magnification" - oavsett vad det innebär - är det intressant att se på den blinkande gula texten "VENTILATION", där man kan se att i native 4K är texten direkt läsbar, medan det tar lite tid innan den gula blobben blir läsbar text på den uppskalade bilden genom XESS. Så det där uttalandet om "the same quality image" är ju redan där void och null.

Sen är det såklart en annan fråga hur märkbart det är i praktiken.

Permalänk
Medlem
Skrivet av person:

Freesync fungerar verkligen inte lika bra.. haft båda freesync är mycket mycket sämre med flimmer hackningar i bilden m.m i flera stora titlar.

Du hade en dålig skärm. Det är det som är dåligt med Freesync, finns bra och dåliga skärmar, man får efterforska lite själv innan köp.

Permalänk
Medlem
Skrivet av person:

Freesync fungerar verkligen inte lika bra.. haft båda freesync är mycket mycket sämre med flimmer hackningar i bilden m.m i flera stora titlar.

Skrivet av Novdid:

Du hade en dålig skärm. Det är det som är dåligt med Freesync, finns bra och dåliga skärmar, man får efterforska lite själv innan köp.

Jag har testat två olika skärmar med freesync. En funkade klockrent och den andra kunde börja flimra i menyer och vissa scenarion. Så jag tror som Novdid att du testat en "dålig" skärm.
G-sync kanske är hårdare kravställt medan Freesync kanske kan vara väldigt brett vad som är acceptabelt.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av Novdid:

Du hade en dålig skärm. Det är det som är dåligt med Freesync, finns bra och dåliga skärmar, man får efterforska lite själv innan köp.

Tyvärr inte. Det är betydligt fler problem med freesync än gsync med modul.

Permalänk
Medlem
Skrivet av person:

Freesync fungerar verkligen inte lika bra.. haft båda freesync är mycket mycket sämre med flimmer hackningar i bilden m.m i flera stora titlar.

Freesync funger utmärkt? Flimmer? Hackningar? Vilka tittlar är det du tänker på? Sitter med tre olika byggen hemma...frugan...sonen och jag. Gsync på frugans skärm och Freesync på min. Ser inte de problemen du nämnt.

Permalänk
Medlem
Skrivet av person:

Tyvärr inte. Det är betydligt fler problem med freesync än gsync med modul.

Skrivet av Siimuliize:

Freesync funger utmärkt? Flimmer? Hackningar? Vilka tittlar är det du tänker på? Sitter med tre olika byggen hemma...frugan...sonen och jag. Gsync på frugans skärm och Freesync på min. Ser inte de problemen du nämnt.

Detta är off-topic, men Freesync (eller rättare Adaptive Sync) varierar från skärm till skärm.

Ska man vara säker så är det bara att välja en skärm från Nvidias G-Sync Compatible-lista (som är samma sak som Freesync) för att vara säker på att Freesync/Adaptive Sync funkar som det ska på just den skärmen.

Så! Nu kan vi återgå till XeSS.

Permalänk
Medlem
Skrivet av Novdid:

Detta är off-topic, men Freesync (eller rättare Adaptive Sync) varierar från skärm till skärm.

Ska man vara säker så är det bara att välja en skärm från Nvidias G-Sync Compatible-lista (som är samma sak som Freesync) för att vara säker på att Freesync/Adaptive Sync funkar som det ska på just den skärmen.

Så! Nu kan vi återgå till XeSS.

Sant det är off topic. Var nyfiken på tittlarna han prata om