The Coalition-utvecklare bekräftar kärnor för ray tracing till Xbox Scarlett

Permalänk
Melding Plague

The Coalition-utvecklare bekräftar kärnor för ray tracing till Xbox Scarlett

I en intervju med Gamespot avslöjar en utvecklare från Gears 5-studion The Coalition att Xbox Scarlett utrustas med dedikerade kärnor för ray tracing.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Ah sweet, RayTracing är här för att stanna, vad än bakåtsträvare tycker.

Permalänk
Medlem

"XBox is all about choice...the games that you want with the people you want on the devices you want."

Så var är deras VR-headset?

Permalänk
Medlem

Då kan man tolka det som att 2021 blir året då strålspårning tar spelvärlden med storm? Då borde Nvidia vara inne på andra eller möjligen tredje generationen RTX-kort? Då kanske det är dags att byta ut mitt GTX 1080.

Visa signatur

Windows 11 Pro | Intel i7 8700 | ASUS Prime Z370-P | Corsair 16GB 3000MHz | ASUS GTX 1080 | Fractal Design Define S | Corsair RM750x | Hyper 212 EVO

Permalänk
Medlem

Lurigt detta med Ray Tracing. Det måste fungera tillfredsställande i många år framöver annars blir konsolerna helt överkörda av pc.
Så ska bli intressant att se vilken nivå det hamnar på. I början lär det blir bättre än på pc då det är lättare att programmera effektivt till en konsol, d v s ta vara på hårdvaran.

Men 8k och Ray Tracing? Nja

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Avstängd

När denna teknik för Ray Tracing ser dagens ljus så lär ju utvecklingen av de gå mot AMDs håll också. Jag tror precis som många andra gör att NVIDIAs version inte kommer slå i så många titlar. NVIDIA är ofta en föregångare till mycke nytt, men de är sällan deras nya tekniker slår igenom. De brukar konkurrerande teknik göra. Man kan ju undra varför ¯\_(ツ)_/¯

Visa signatur

🖥Phanteks Enthoo Evolv iTX . Phanteks AMP 650W. AMD R5 3600X. msi B450I GAMING PLUS AC. 32gB HyperX Fury RGB 3200MHz. msi RX 5700 XT GAMING. 1TB Kingston A2000.
AOC G2460FQ. Logitech G903. Logitech G840 XL. Logitech G513. Logitech PRO Gaming Headset. Luxorparts Headphone Stand. LG BP50NB40.

Permalänk
Medlem
Skrivet av HC-8315:

När denna teknik för Ray Tracing ser dagens ljus så lär ju utvecklingen av de gå mot AMDs håll också. Jag tror precis som många andra gör att NVIDIAs version inte kommer slå i så många titlar. NVIDIA är ofta en föregångare till mycke nytt, men de är sällan deras nya tekniker slår igenom. De brukar konkurrerande teknik göra. Man kan ju undra varför ¯\_(ツ)_/¯

Andras är kanske billigare och inte lika inlåsta i sitt system?

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

Jadu. Det är väl som tessellation och AA etc. Jäkla gimick som bara slösar prestanda...
Några år senare har alla kort hårdvara för att köra det och det är ingen som inte kör det för det har implementerats på ett bra sätt.
Jag tror ray tracing kommer finnas i många spel om några år och att konsolerna har det gör att vi nog får en användning som är rimlig för de flesta maskiner med modernt grafikkort.
Det är bara att vänta och se men idag är det för tidigt, krävande och experimentella implementationer

Visa signatur

Speldator: Ryzen 5800x3d | Asus B550m TUF Gaming Wi-Fi | G.Skill TridentZ Neo 2x16GB 3600MHz CL16 (hynix djr) | In Win 301 | Scythe Fuma 2 I Asus RTX 3070 Dual OC | Seasonic GX750 | Lots of unicorn vomit Laptop: Thinkpad E14 G2 4700U Kringutrustning: Cooler master Quickfire TK MX-Brown | Sennheiser HD598cs | Sony WH1000XM3 | Logitech G900 | ASUS PB278QR | Rift CV1 | Audio Pro Addon T14

Permalänk
Medlem
Skrivet av Joppis:

Då kan man tolka det som att 2021 blir året då strålspårning tar spelvärlden med storm?

Knappast. Inga multiplattformsspel kommer att byggas runt det på ett bra tag till.
Däremot kanske Microsofts egna konsolprodukter. Fast - de måste ju köra på PC-burkar också, så där finns en del frågetecken.

Dessutom stämmer ju inte ”ray tracing cores” mad AMD:s patent, så vad är det som kommer att implementeras egentligen?

Och för det tredje: XBox säljs i mycket små volymer i relation till den totala marknaden. Vi får se om också Sonys nya konsol stödjer samma teknik. Och naturligtvis, med vilken prestanda.

Permalänk
Medlem
Skrivet av wargreymon:

Ah sweet, RayTracing är här för att stanna, vad än bakåtsträvare tycker.

De har liksom inte mycket annat de kan göra med specifika kärnorna

Är lite som att GPUer är här för att stanna, även om allt kan räknas på en CPU. GPU kärnorna kan dock inte ersätta CPUns alla funktioner, utan bara hjälpa till. RT hade varit ett kanon "extra kort" om det hade kunnat göras så. Se det som "dual-gpu" lösning i DX12, med ett RT optimerat kort du kan köpa till.

Som det är nu tog ju Nvidia ett 10-series pascal chip... limma på lite Tensorkärnor och skapa RTX. Sålde det för hutlösa pengar till folk som inte inser att första gen troligen inte kommer vara så användbar när det väl "slår igenom".

AMD tar sina nya RDNA kärnor och limmar på lite RT kärnor de troligen utvecklar just nu. De har ju dock utvecklare och en marknad som accepterar 30 fps 4k "liknande"... bara det är prisvärt. Så betydligt enklare att sälja, även om det påverkar prestandan.

Du betalar mao en hel del extra för en funktion som... idag, knappt kan användas vettigt. Men å andra sidan, om de göra RT kärnorna starkare, lyfta bort last på vanliga GPUns kärna så är det ju klart positivt. Men det lär kräva en hel del generationer innan vi ser det.

AA började ju som en funktion som var "wow..." men ingen utom de med super dyrt system kunde köra pga prestandakraven. Så med tiden... why not.

Personligen dock tar jag hellre 1440/4k med 100FPS, än RT och lägre FPS.. men det är kanske jag bara. Hellre utan AA än låg FPS mao.

Permalänk
Medlem

Men det pratas om att AMD ska ha nya TMU:er som ska sköta raytracingspecifika operationer och där mycket av nummertuggandet ska ske i vanliga shaders, detta för att optimera så att man får så mycket prestanda som möjligt per transistor och för att underlätta för programmerare som slipper programmera för shaders, tensorkärnor och RT-kärnor samtidigt som hos nVidia.
Passar det överens med uttalandet om dedikerade raytracingenheter? Kan det ses som raytracingkärnor och TMUs separat utåt även om de är ganska integrerade i sin konstruktion?
Eller är patentet på raytracing på TMUs och shaders inte något som kommer användas i första generationen hårdvaruaccelerad raytracing från AMD?

Permalänk
Medlem
Skrivet av SCORPIUS:

Andras är kanske billigare och inte lika inlåsta i sitt system?

Hur är Nvidias version inlåst i deras system?
De använder sig utav DirectX Raytracing och att det inte fungerar på AMD gpuer ligger väl mer på att speltillverkare inte lägger till stödet för det inte är värt tiden.

Visa signatur

FD Torrent | 7800X3D | 32GB RAM | Nvidia 3080 FE | Corsair SF750 | Fostex TH-X00 + Sennheiser HD 650

Permalänk
Lyxfällan 🎮
Skrivet av EntropyQ3:

Knappast. Inga multiplattformsspel kommer att byggas runt det på ett bra tag till.
Däremot kanske Microsofts egna konsolprodukter. Fast - de måste ju köra på PC-burkar också, så där finns en del frågetecken.

Dessutom stämmer ju inte ”ray tracing cores” mad AMD:s patent, så vad är det som kommer att implementeras egentligen?

Och för det tredje: XBox säljs i mycket små volymer i relation till den totala marknaden. Vi får se om också Sonys nya konsol stödjer samma teknik. Och naturligtvis, med vilken prestanda.

Skrivet av Aleshi:

Men det pratas om att AMD ska ha nya TMU:er som ska sköta raytracingspecifika operationer och där mycket av nummertuggandet ska ske i vanliga shaders, detta för att optimera så att man får så mycket prestanda som möjligt per transistor och för att underlätta för programmerare som slipper programmera för shaders, tensorkärnor och RT-kärnor samtidigt som hos nVidia.
Passar det överens med uttalandet om dedikerade raytracingenheter? Kan det ses som raytracingkärnor och TMUs separat utåt även om de är ganska integrerade i sin konstruktion?
Eller är patentet på raytracing på TMUs och shaders inte något som kommer användas i första generationen hårdvaruaccelerad raytracing från AMD?

Värt att ha i åtanke är att personen som intervjuats är Creative Director, alltså kreativt styrande i projektet och har kanske inte nödvändigtvis järnkoll på arkitektoniska egenskaper som spelmotor-kollegorna har. Också värt att beakta är att han pratar med en spelsajt som har en bred publik som kanske inte har djup förståelse för arkitektoniska frågor, och han kan därför förenkla till "dedikerade RT-kärnor".

Om man ska titta specifikt på nästa generations konsoler har jag väldigt svårt att se att Sony och Microsoft har budget för dedikerade RT-kärnor i stil med Nvidias lösning. De är stora, använder många transistorer, medför en hel del kostnader och ökar krav på ström/värmebudget. I en spelkonsol med begränsad budget för såväl pris som transistormängd, strömförbrukning och värmeutveckling har jag svårt att se att AMD skulle klämma in RT-kärnor i en konsol-SoC. Särskilt eftersom inte alla utvecklare kommer använda funktionen, och då blir det bortslösade budgetresurser.

Ur det avseendet förefaller AMD-patentet med utökade shader-enheter betydligt mer rimligt för en konsol-SoC. Utvecklare kan utnyttja RT-funktionen om de vill, men om de inte gör det är belastningen på kretsens budget förhållandevis väldigt liten jämfört med fullödiga RT-enheter. Så rent spekulativt tror jag att hans uttalande enbart refererar till att konsolens "grafikkärnor" är RT-kapabla, inte att det handlar om dedikerade enheter för ändamålet.

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Medlem

Av allt man har hört om nästa generations konsoler så låter det som att vi får betala mer än 10000kr för en konsol.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av zather:

Hur är Nvidias version inlåst i deras system?
De använder sig utav DirectX Raytracing och att det inte fungerar på AMD gpuer ligger väl mer på att speltillverkare inte lägger till stödet för det inte är värt tiden.

"men de är sällan deras nya tekniker slår igenom. De brukar konkurrerande teknik göra."
Denna raden infattade mycket mer än RT.
Ta deras glasögon för 3D tex. 3D vision. Funkar bara med nvidia och skärm avsedd för det.

Alla annan 3D är öppen för vem som.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av CubaCola:

Av allt man har hört om nästa generations konsoler så låter det som att vi får betala mer än 10000kr för en konsol.

En stor m.2 SSD, Ryzen CPU och ny GPU i relativt hög klass kostar, men jag tror inte de kommer springa iväg så illa. De tog väl ca 6500 för de dyraste jag sett, och skulle inte förvåna mig om de dyraste blir i den klassen... 6000-7000kr iaf, max 8000. Men det kommer ju finnas enklare modeller också, där du får tex mindre disk.

Sen får vi tänka på att både DDR4 och SSDer sjunker sakta men säkert i pris, och vi pratar OEM stor produktion (så bra bulk pris) och 2020. Men att döma från specs som de skryter med iaf, är det nog första konsolen jag tror även PC spelare kommer titta på. Riktigt CPU, SSD och extra features... låter som en vettig grund tbh.

Permalänk
Medlem
Skrivet av SCORPIUS:

"men de är sällan deras nya tekniker slår igenom. De brukar konkurrerande teknik göra."
Denna raden infattade mycket mer än RT.
Ta deras glasögon för 3D tex. 3D vision. Funkar bara med nvidia och skärm avsedd för det.

Alla annan 3D är öppen för vem som.

Ok tänkte mes på ray tracing eftersom artikeln handlade om det och 3d vision är kan jag hålla med om men personligen så skulle jag inte säga att Nvidia sitter och kommer på massa som andra ersätter med standarder.

Jag kommer iaf inte på någon stor grej just denna sekund.

Visa signatur

FD Torrent | 7800X3D | 32GB RAM | Nvidia 3080 FE | Corsair SF750 | Fostex TH-X00 + Sennheiser HD 650

Permalänk
Medlem

MS bekräftade ju hårdvaruaccelererad ray tracing redan på E3. Så nyheten häri ligger i att Gears-snubben tycker det ska bli kul?

Citat:

Intressant nog avslöjar företaget också att grafikkretsen stöder hårdvaruaccelererad ray tracing

https://www.sweclockers.com/nyhet/27703-microsoft-avtacker-xb...

Permalänk
Medlem
Skrivet av wargreymon:

Ah sweet, RayTracing är här för att stanna, vad än bakåtsträvare tycker.

Tror ingen tycker att Ray Tracing i sig är dåligt eller inte vill ha det. Det är att just nu så är det inte det minsta imponerande vad man kan göra med det, speciellt till den prestandaförlust man får.

Visa signatur

AMD 5800X ▪ MSI B550M Mortar ▪ G.Skill 32GB 3600MHz CL16 ▪ Palit 4070 Ti ▪ 1TB SSD 970 Evo+ ▪ Dark Power 13 1000W ▪ FD Define Mini C ▪ Aorus AD27QD + LG 27GL850

Permalänk
Medlem

60GB nvme-disk incoming XD om vi tittar på storleken från andra generationer rofl

Permalänk
Inaktiv
Skrivet av wargreymon:

Ah sweet, RayTracing är här för att stanna, vad än bakåtsträvare tycker.

Det är väl ändå väldigt få eller ingen som tycker att raytracing är dåligt? Det är Nvidias marknadsföring och prissättning på produkterna med raytracing som har kritiserats så hårt.
Raytracing är välkommet för min del men så länge det innebär dubbelt så dyra grafikkort, 30fps och ungefär 3st spel som stödjer tekniken så säger jag tack men nej tack!

Permalänk
Medlem

Börjar bli hypad på nästa gen spelkonsoll, raytracing är nice. Hoppas bara innerligen att de satsar på 60fps och ej 30fps denna generationen. Dvs min 60fps på de flesta spel.
Det lär bli en xbox nästa gen, gampass är på tok för bra för att playstation ens skall kunna vara ett alternativ.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av zather:

Ok tänkte mes på ray tracing eftersom artikeln handlade om det och 3d vision är kan jag hålla med om men personligen så skulle jag inte säga att Nvidia sitter och kommer på massa som andra ersätter med standarder.

Jag kommer iaf inte på någon stor grej just denna sekund.

G-Sync är ett annat exempel på Nvidia teknik för de som använder Nvidia kort.
Finns andra varianter för variabel bildsynkronisering, som Freesync och Vesa adaptive sync. Men just G-Sync är Nvidia specifikt.

Permalänk
Medlem
Skrivet av GuessWho:

G-Sync är ett annat exempel på Nvidia teknik för de som använder Nvidia kort.
Finns andra varianter för variabel bildsynkronisering, som Freesync och Vesa adaptive sync. Men just G-Sync är Nvidia specifikt.

Fast vi sa där det kommer ut och sätts som standard. G-Sync finns fortfarande för att det just nu är bättre men kanske i framtiden så går vi över till bara adaptive sync men i nuet skulle jag inte säga att det stämmer alls.
G-sync är märkbart bättre och har fler funktioner men kostar också mer därför.

Visa signatur

FD Torrent | 7800X3D | 32GB RAM | Nvidia 3080 FE | Corsair SF750 | Fostex TH-X00 + Sennheiser HD 650

Permalänk
Medlem

Uppdatering: Texten säger nu "Having dedicated ray tracing hardware is huge." Så antingen är det fel å intervjuarens vägnar, eller så är det så att de råkade säga lite för mycket... Intressant i båda fall.

Citat:

AMD har sedan tidigare aviserat att den fullständiga versionen av RDNA kommer först nästa år med generation två av arkitekturen.

När sa de det? Har aldrig hört detta från dem. Man kan dock ha en tolkning att de varianter med mixed precision FMA enheter såsom Navi12 och Navi14 är "fullständig RDNA", och starka indikationer på ett utbyggt system för att göra plats för intersection hårdvara vid texturenheterna.

Citat:

Ett patent som avtäcktes tidigare i år antyder att AMD valt att utrusta befintlig arkitektur med ray tracing-kapacitet, istället för dedikerade RT-enheter likt de som används i Nvidias Turing-arkitektur i Geforce RTX-familjen.

Skrivet av EntropyQ3:

Dessutom stämmer ju inte ”ray tracing cores” mad AMD:s patent, så vad är det som kommer att implementeras egentligen?

Om man läser patentet blir det dock ytterst klart att de har även täckt in fallet med a traversal sker i fixed function hårdvara. Vilket gör att den i stort sett inte alls skiljer sig från Turing.

[0023] "Based on the results of the intersection testing, a state machine determines how the shader units should advance its internal stack (traversal stack) and traverse the BVH tree. The state machine can be fixed function or programmable."

[0035] "Alternatively, shader functionality can be implemented partially or fully as fixed-function, non-programmable hardware external to the compute unit"

[0048] "It should be understood that many variations are possible based on the disclosure herein."

Läser man [0024] låter det mer som att det är ett val. "Flexibility is preserved since the shader unit can still control the overall calculation and can bypass the fixed function hardware where needed and still get the performance advantage of the fixed function hardware."

Citat från patentet som stödjer en fixed function traversal

Visst är det otroligt att man kan läsa samma sak med ett helt nytt perspektiv långt senare? Det här kräver dock att man är grammar nazi lvl 999.

Skrivet av Paddanx:

RT hade varit ett kanon "extra kort" om det hade kunnat göras så. Se det som "dual-gpu" lösning i DX12, med ett RT optimerat kort du kan köpa till.

Nope. Detta hade behövt att man duplicerar resurser (vilket leder till att totalkostnaden blir mycket högre, skulle inte förvåna mig om det blev 1.5-1.8k dollar totalt (1000 för huvudkortet och ~500-800 dollar för acceleratorn) för att få något som motsvarar en 2080ti). Minnessystem, VRAM för BVH och scendata, cache dupliceras, schemaläggare, etc etc. Samtidigt utgör det en liten del av kretsytan , vilket är helt i linje med tidigare forskning. Att få det sålt till renderingsfarmar är nog inget problem , men för spel så är det både svårsålt och inte helt optimalt (då det introducerar synkronisering,minnesöverföringar och så som kan ta upp en hel del tid. Om vi har flera olika effekter som i control så blir det extra jobbigt). Sedan så har vi shading efteråt som måste ske på det andra kortet.

Det finns även ett mysterium (iallafall för mig) med just Turing och RT. När RT Cores körs så körs alltid FP32 och INT32 kärnorna samtidigt i de exempel som NVIDIA visat, och de arbetar med någonting väldigt relaterat till RT lasten (ingen annan del reduceras). Om det är så att de håller på med en last relaterat till RT som de inte direkt specificerat... så kan det bli så att allting blir mycket mer komplicerat. AMD och NVIDIA har förmodligen gjort alla beräkningar och gått igenom alla detaljer, så jag litar på att de fattar smarta val.

Skrivet av loevet:

Om man ska titta specifikt på nästa generations konsoler har jag väldigt svårt att se att Sony och Microsoft har budget för dedikerade RT-kärnor i stil med Nvidias lösning. De är stora, använder många transistorer, medför en hel del kostnader och ökar krav på ström/värmebudget. I en spelkonsol med begränsad budget för såväl pris som transistormängd, strömförbrukning och värmeutveckling har jag svårt att se att AMD skulle klämma in RT-kärnor i en konsol-SoC. Särskilt eftersom inte alla utvecklare kommer använda funktionen, och då blir det bortslösade budgetresurser.

Ur det avseendet förefaller AMD-patentet med utökade shader-enheter betydligt mer rimligt för en konsol-SoC. Utvecklare kan utnyttja RT-funktionen om de vill, men om de inte gör det är belastningen på kretsens budget förhållandevis väldigt liten jämfört med fullödiga RT-enheter. Så rent spekulativt tror jag att hans uttalande enbart refererar till att konsolens "grafikkärnor" är RT-kapabla, inte att det handlar om dedikerade enheter för ändamålet.

Med tanke på att det går att få in den hårdvara som krävs genom att öka arean med några få procent så lär det inte vara något större problem (utan kostnader de tagit hänsyn till). Att ha en fixed function tillståndsmaskin utöver det som de redan lägger in, är nog inte hela världen. Inte heller verkar de ha otillräckligt med cache för att få allt att fungera. Vi får se helt enkelt, men de kommer nog maximera vad de kan få ut från den hårdvara som de väljer.