The Coalition-utvecklare bekräftar kärnor för ray tracing till Xbox Scarlett

Trädvy Permalänk
Dalek
Registrerad
Dec 1999

The Coalition-utvecklare bekräftar kärnor för ray tracing till Xbox Scarlett

I en intervju med Gamespot avslöjar en utvecklare från Gears 5-studion The Coalition att Xbox Scarlett utrustas med dedikerade kärnor för ray tracing.

Läs hela artikeln här

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa leder till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Nov 2011

Ah sweet, RayTracing är här för att stanna, vad än bakåtsträvare tycker.

Trädvy Permalänk
Medlem
Registrerad
Nov 2008

"XBox is all about choice...the games that you want with the people you want on the devices you want."

Så var är deras VR-headset?

Trädvy Permalänk
Medlem
Plats
127.0.0.1
Registrerad
Apr 2008

Då kan man tolka det som att 2021 blir året då strålspårning tar spelvärlden med storm? Då borde Nvidia vara inne på andra eller möjligen tredje generationen RTX-kort? Då kanske det är dags att byta ut mitt GTX 1080.

Intel i7 8700 | ASUS Prime Z370-P | Corsair 16GB 3000MHz | ASUS GTX 1080 8 GB @ 2100MHz/11080MHz | Fractal Design Define S | Corsair RMX750x | Cooler Master Hyper 212 EVO

Trädvy Permalänk
Medlem
Plats
Kryptan/Lund
Registrerad
Nov 2004

Lurigt detta med Ray Tracing. Det måste fungera tillfredsställande i många år framöver annars blir konsolerna helt överkörda av pc.
Så ska bli intressant att se vilken nivå det hamnar på. I början lär det blir bättre än på pc då det är lättare att programmera effektivt till en konsol, d v s ta vara på hårdvaran.

Men 8k och Ray Tracing? Nja

CPU: I7 2600k @ 4.4ghz med Noctua NH-D14 GPU: GTX 1070 med Accelero Xtreme III @2 120mm cf-v12hp hydro dynamic @skitsnabbt. MODERKORT: Gigabyte GA-Z77X-UD3H. RAM: 16GB DDR3 PC19200/2400MHz@2133MHz. HÅRDDISK: Samsung 850 EVO 250GB SSD, Intel SSD 320 Series 160GB , 4 Mekaniska. MONITOR:1 Samsung S27A950D 3D" MONITOR:2 Samsung 2693HM 25,5" MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Trädvy Permalänk
Medlem
Plats
TX-225 GAVw
Registrerad
Dec 2017

När denna teknik för Ray Tracing ser dagens ljus så lär ju utvecklingen av de gå mot AMDs håll också. Jag tror precis som många andra gör att NVIDIAs version inte kommer slå i så många titlar. NVIDIA är ofta en föregångare till mycke nytt, men de är sällan deras nya tekniker slår igenom. De brukar konkurrerande teknik göra. Man kan ju undra varför ¯\_(ツ)_/¯

🖥 COOLER MASTER MASTERBOX Q300L. COOLER MASTER MASTERWATT 650W. AMD R7 2700. AORUS B450M. 16GB G.SKILL Trident Z RGB 3000MHz. GIGABYTE GTX 1070 Ti WINDFORCE. 500GB WD BLACK SN750.
AOC G2460FQ. GUNNAR VAYPER ONYX. Logitech G903. Logitech G240. Logitech G410. Logitech G933. Luxorparts Headphone Stand. LG BP50NB40.

Trädvy Permalänk
Medlem
Plats
Kryptan/Lund
Registrerad
Nov 2004
Skrivet av HC-8315:

När denna teknik för Ray Tracing ser dagens ljus så lär ju utvecklingen av de gå mot AMDs håll också. Jag tror precis som många andra gör att NVIDIAs version inte kommer slå i så många titlar. NVIDIA är ofta en föregångare till mycke nytt, men de är sällan deras nya tekniker slår igenom. De brukar konkurrerande teknik göra. Man kan ju undra varför ¯\_(ツ)_/¯

Andras är kanske billigare och inte lika inlåsta i sitt system?

CPU: I7 2600k @ 4.4ghz med Noctua NH-D14 GPU: GTX 1070 med Accelero Xtreme III @2 120mm cf-v12hp hydro dynamic @skitsnabbt. MODERKORT: Gigabyte GA-Z77X-UD3H. RAM: 16GB DDR3 PC19200/2400MHz@2133MHz. HÅRDDISK: Samsung 850 EVO 250GB SSD, Intel SSD 320 Series 160GB , 4 Mekaniska. MONITOR:1 Samsung S27A950D 3D" MONITOR:2 Samsung 2693HM 25,5" MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Trädvy Permalänk
Medlem
Plats
Västerås
Registrerad
Feb 2013

Jadu. Det är väl som tessellation och AA etc. Jäkla gimick som bara slösar prestanda...
Några år senare har alla kort hårdvara för att köra det och det är ingen som inte kör det för det har implementerats på ett bra sätt.
Jag tror ray tracing kommer finnas i många spel om några år och att konsolerna har det gör att vi nog får en användning som är rimlig för de flesta maskiner med modernt grafikkort.
Det är bara att vänta och se men idag är det för tidigt, krävande och experimentella implementationer

Speldator: Intel core i5 3570k 4,4GHz@1,272V| Asus P8Z77-I DELUXE | Gigabyte GTX1060 6GB Windforce 2X | Fractal Design Node 304 | CM Hyper 212 EVO |Crucial MX300 525GB | 2TB Seagate Barracuda 3,5"| Corsair Vengeance LP 16GB (2x8) 1600MHz cl10 | Be Quiet! Straight power 600w 80+ Gold |Windows 8.1| Laptop: Lenovo T420ip + 660Ti eGPU Kringutrustning: Qpad MK-85 Pro MX-Brown | Sennheiser HD598cs | Logitech G900 | ASUS PB278QR | Rift CV1 | Audio Pro Addon T14

Trädvy Permalänk
Medlem
Plats
Lund
Registrerad
Sep 2008
Skrivet av Joppis:

Då kan man tolka det som att 2021 blir året då strålspårning tar spelvärlden med storm?

Knappast. Inga multiplattformsspel kommer att byggas runt det på ett bra tag till.
Däremot kanske Microsofts egna konsolprodukter. Fast - de måste ju köra på PC-burkar också, så där finns en del frågetecken.

Dessutom stämmer ju inte ”ray tracing cores” mad AMD:s patent, så vad är det som kommer att implementeras egentligen?

Och för det tredje: XBox säljs i mycket små volymer i relation till den totala marknaden. Vi får se om också Sonys nya konsol stödjer samma teknik. Och naturligtvis, med vilken prestanda.

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Maj 2014
Skrivet av wargreymon:

Ah sweet, RayTracing är här för att stanna, vad än bakåtsträvare tycker.

De har liksom inte mycket annat de kan göra med specifika kärnorna

Är lite som att GPUer är här för att stanna, även om allt kan räknas på en CPU. GPU kärnorna kan dock inte ersätta CPUns alla funktioner, utan bara hjälpa till. RT hade varit ett kanon "extra kort" om det hade kunnat göras så. Se det som "dual-gpu" lösning i DX12, med ett RT optimerat kort du kan köpa till.

Som det är nu tog ju Nvidia ett 10-series pascal chip... limma på lite Tensorkärnor och skapa RTX. Sålde det för hutlösa pengar till folk som inte inser att första gen troligen inte kommer vara så användbar när det väl "slår igenom".

AMD tar sina nya RDNA kärnor och limmar på lite RT kärnor de troligen utvecklar just nu. De har ju dock utvecklare och en marknad som accepterar 30 fps 4k "liknande"... bara det är prisvärt. Så betydligt enklare att sälja, även om det påverkar prestandan.

Du betalar mao en hel del extra för en funktion som... idag, knappt kan användas vettigt. Men å andra sidan, om de göra RT kärnorna starkare, lyfta bort last på vanliga GPUns kärna så är det ju klart positivt. Men det lär kräva en hel del generationer innan vi ser det.

AA började ju som en funktion som var "wow..." men ingen utom de med super dyrt system kunde köra pga prestandakraven. Så med tiden... why not.

Personligen dock tar jag hellre 1440/4k med 100FPS, än RT och lägre FPS.. men det är kanske jag bara. Hellre utan AA än låg FPS mao.

Trädvy Permalänk
Medlem
Registrerad
Nov 2011

Men det pratas om att AMD ska ha nya TMU:er som ska sköta raytracingspecifika operationer och där mycket av nummertuggandet ska ske i vanliga shaders, detta för att optimera så att man får så mycket prestanda som möjligt per transistor och för att underlätta för programmerare som slipper programmera för shaders, tensorkärnor och RT-kärnor samtidigt som hos nVidia.
Passar det överens med uttalandet om dedikerade raytracingenheter? Kan det ses som raytracingkärnor och TMUs separat utåt även om de är ganska integrerade i sin konstruktion?
Eller är patentet på raytracing på TMUs och shaders inte något som kommer användas i första generationen hårdvaruaccelerad raytracing från AMD?

Trädvy Permalänk
Medlem
Plats
Växjö
Registrerad
Aug 2009
Skrivet av SCORPIUS:

Andras är kanske billigare och inte lika inlåsta i sitt system?

Hur är Nvidias version inlåst i deras system?
De använder sig utav DirectX Raytracing och att det inte fungerar på AMD gpuer ligger väl mer på att speltillverkare inte lägger till stödet för det inte är värt tiden.

Ryzen 3700X | EVGA 1070 SC | EVGA G3 750W
Acer XF270HUA | 16GB RAM | FD Define Mini C | Fostex TH-X00

Trädvy Permalänk
Teknikorakel 🎮
Andreas Eklöv
Plats
Stockholm
Registrerad
Dec 2015
Skrivet av EntropyQ3:

Knappast. Inga multiplattformsspel kommer att byggas runt det på ett bra tag till.
Däremot kanske Microsofts egna konsolprodukter. Fast - de måste ju köra på PC-burkar också, så där finns en del frågetecken.

Dessutom stämmer ju inte ”ray tracing cores” mad AMD:s patent, så vad är det som kommer att implementeras egentligen?

Och för det tredje: XBox säljs i mycket små volymer i relation till den totala marknaden. Vi får se om också Sonys nya konsol stödjer samma teknik. Och naturligtvis, med vilken prestanda.

Skrivet av Aleshi:

Men det pratas om att AMD ska ha nya TMU:er som ska sköta raytracingspecifika operationer och där mycket av nummertuggandet ska ske i vanliga shaders, detta för att optimera så att man får så mycket prestanda som möjligt per transistor och för att underlätta för programmerare som slipper programmera för shaders, tensorkärnor och RT-kärnor samtidigt som hos nVidia.
Passar det överens med uttalandet om dedikerade raytracingenheter? Kan det ses som raytracingkärnor och TMUs separat utåt även om de är ganska integrerade i sin konstruktion?
Eller är patentet på raytracing på TMUs och shaders inte något som kommer användas i första generationen hårdvaruaccelerad raytracing från AMD?

Värt att ha i åtanke är att personen som intervjuats är Creative Director, alltså kreativt styrande i projektet och har kanske inte nödvändigtvis järnkoll på arkitektoniska egenskaper som spelmotor-kollegorna har. Också värt att beakta är att han pratar med en spelsajt som har en bred publik som kanske inte har djup förståelse för arkitektoniska frågor, och han kan därför förenkla till "dedikerade RT-kärnor".

Om man ska titta specifikt på nästa generations konsoler har jag väldigt svårt att se att Sony och Microsoft har budget för dedikerade RT-kärnor i stil med Nvidias lösning. De är stora, använder många transistorer, medför en hel del kostnader och ökar krav på ström/värmebudget. I en spelkonsol med begränsad budget för såväl pris som transistormängd, strömförbrukning och värmeutveckling har jag svårt att se att AMD skulle klämma in RT-kärnor i en konsol-SoC. Särskilt eftersom inte alla utvecklare kommer använda funktionen, och då blir det bortslösade budgetresurser.

Ur det avseendet förefaller AMD-patentet med utökade shader-enheter betydligt mer rimligt för en konsol-SoC. Utvecklare kan utnyttja RT-funktionen om de vill, men om de inte gör det är belastningen på kretsens budget förhållandevis väldigt liten jämfört med fullödiga RT-enheter. Så rent spekulativt tror jag att hans uttalande enbart refererar till att konsolens "grafikkärnor" är RT-kapabla, inte att det handlar om dedikerade enheter för ändamålet.

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Trädvy Permalänk
Medlem
Registrerad
Okt 2018

Av allt man har hört om nästa generations konsoler så låter det som att vi får betala mer än 10000kr för en konsol.

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG278Q 27" 144Hz

Ryzen 5 3600@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / Asus Rog Strix Geforce RTX 2060 OC / BeQuiet Pure Power 11 600W

Trädvy Permalänk
Medlem
Plats
Kryptan/Lund
Registrerad
Nov 2004
Skrivet av zather:

Hur är Nvidias version inlåst i deras system?
De använder sig utav DirectX Raytracing och att det inte fungerar på AMD gpuer ligger väl mer på att speltillverkare inte lägger till stödet för det inte är värt tiden.

"men de är sällan deras nya tekniker slår igenom. De brukar konkurrerande teknik göra."
Denna raden infattade mycket mer än RT.
Ta deras glasögon för 3D tex. 3D vision. Funkar bara med nvidia och skärm avsedd för det.

Alla annan 3D är öppen för vem som.

CPU: I7 2600k @ 4.4ghz med Noctua NH-D14 GPU: GTX 1070 med Accelero Xtreme III @2 120mm cf-v12hp hydro dynamic @skitsnabbt. MODERKORT: Gigabyte GA-Z77X-UD3H. RAM: 16GB DDR3 PC19200/2400MHz@2133MHz. HÅRDDISK: Samsung 850 EVO 250GB SSD, Intel SSD 320 Series 160GB , 4 Mekaniska. MONITOR:1 Samsung S27A950D 3D" MONITOR:2 Samsung 2693HM 25,5" MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Maj 2014
Skrivet av CubaCola:

Av allt man har hört om nästa generations konsoler så låter det som att vi får betala mer än 10000kr för en konsol.

En stor m.2 SSD, Ryzen CPU och ny GPU i relativt hög klass kostar, men jag tror inte de kommer springa iväg så illa. De tog väl ca 6500 för de dyraste jag sett, och skulle inte förvåna mig om de dyraste blir i den klassen... 6000-7000kr iaf, max 8000. Men det kommer ju finnas enklare modeller också, där du får tex mindre disk.

Sen får vi tänka på att både DDR4 och SSDer sjunker sakta men säkert i pris, och vi pratar OEM stor produktion (så bra bulk pris) och 2020. Men att döma från specs som de skryter med iaf, är det nog första konsolen jag tror även PC spelare kommer titta på. Riktigt CPU, SSD och extra features... låter som en vettig grund tbh.

Trädvy Permalänk
Medlem
Plats
Växjö
Registrerad
Aug 2009
Skrivet av SCORPIUS:

"men de är sällan deras nya tekniker slår igenom. De brukar konkurrerande teknik göra."
Denna raden infattade mycket mer än RT.
Ta deras glasögon för 3D tex. 3D vision. Funkar bara med nvidia och skärm avsedd för det.

Alla annan 3D är öppen för vem som.

Ok tänkte mes på ray tracing eftersom artikeln handlade om det och 3d vision är kan jag hålla med om men personligen så skulle jag inte säga att Nvidia sitter och kommer på massa som andra ersätter med standarder.

Jag kommer iaf inte på någon stor grej just denna sekund.

Ryzen 3700X | EVGA 1070 SC | EVGA G3 750W
Acer XF270HUA | 16GB RAM | FD Define Mini C | Fostex TH-X00

Trädvy Permalänk
Medlem
Plats
Sverige
Registrerad
Jun 2006

MS bekräftade ju hårdvaruaccelererad ray tracing redan på E3. Så nyheten häri ligger i att Gears-snubben tycker det ska bli kul?

Citat:

Intressant nog avslöjar företaget också att grafikkretsen stöder hårdvaruaccelererad ray tracing

https://www.sweclockers.com/nyhet/27703-microsoft-avtacker-xb...

Trädvy Permalänk
Medlem
Registrerad
Mar 2005
Skrivet av wargreymon:

Ah sweet, RayTracing är här för att stanna, vad än bakåtsträvare tycker.

Tror ingen tycker att Ray Tracing i sig är dåligt eller inte vill ha det. Det är att just nu så är det inte det minsta imponerande vad man kan göra med det, speciellt till den prestandaförlust man får.

▪ i7-6700K ▪ Asus Z170-A ▪ 16GB 2800MHz ▪ GLH 1080 ▪ 400GB NVMe ▪ Aorus AD27QD ▪

Trädvy Permalänk
Medlem
Registrerad
Apr 2015

60GB nvme-disk incoming XD om vi tittar på storleken från andra generationer rofl

Trädvy Permalänk
Medlem
Plats
Sverige
Registrerad
Sep 2002
Skrivet av wargreymon:

Ah sweet, RayTracing är här för att stanna, vad än bakåtsträvare tycker.

Det är väl ändå väldigt få eller ingen som tycker att raytracing är dåligt? Det är Nvidias marknadsföring och prissättning på produkterna med raytracing som har kritiserats så hårt.
Raytracing är välkommet för min del men så länge det innebär dubbelt så dyra grafikkort, 30fps och ungefär 3st spel som stödjer tekniken så säger jag tack men nej tack!

Ryzen R5 3600 * Patriot Viper 16GB 3400MHz CL16 * MSI B450M Mortar * Gigabyte Aorus GTX 1080Ti * Samsung 970 EVO 500GB + Samsung 860 EVO 500GB * Fractal Design Meshify C Mini * Corsair RM750x

Trädvy Permalänk
Medlem
Registrerad
Nov 2013

Börjar bli hypad på nästa gen spelkonsoll, raytracing är nice. Hoppas bara innerligen att de satsar på 60fps och ej 30fps denna generationen. Dvs min 60fps på de flesta spel.
Det lär bli en xbox nästa gen, gampass är på tok för bra för att playstation ens skall kunna vara ett alternativ.

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Plats
Västkusten
Registrerad
Aug 2010
Skrivet av zather:

Ok tänkte mes på ray tracing eftersom artikeln handlade om det och 3d vision är kan jag hålla med om men personligen så skulle jag inte säga att Nvidia sitter och kommer på massa som andra ersätter med standarder.

Jag kommer iaf inte på någon stor grej just denna sekund.

G-Sync är ett annat exempel på Nvidia teknik för de som använder Nvidia kort.
Finns andra varianter för variabel bildsynkronisering, som Freesync och Vesa adaptive sync. Men just G-Sync är Nvidia specifikt.

Trädvy Permalänk
Medlem
Plats
Växjö
Registrerad
Aug 2009
Skrivet av GuessWho:

G-Sync är ett annat exempel på Nvidia teknik för de som använder Nvidia kort.
Finns andra varianter för variabel bildsynkronisering, som Freesync och Vesa adaptive sync. Men just G-Sync är Nvidia specifikt.

Fast vi sa där det kommer ut och sätts som standard. G-Sync finns fortfarande för att det just nu är bättre men kanske i framtiden så går vi över till bara adaptive sync men i nuet skulle jag inte säga att det stämmer alls.
G-sync är märkbart bättre och har fler funktioner men kostar också mer därför.

Ryzen 3700X | EVGA 1070 SC | EVGA G3 750W
Acer XF270HUA | 16GB RAM | FD Define Mini C | Fostex TH-X00

Trädvy Permalänk
Medlem
Registrerad
Mar 2017

Uppdatering: Texten säger nu "Having dedicated ray tracing hardware is huge." Så antingen är det fel å intervjuarens vägnar, eller så är det så att de råkade säga lite för mycket... Intressant i båda fall.

Citat:

AMD har sedan tidigare aviserat att den fullständiga versionen av RDNA kommer först nästa år med generation två av arkitekturen.

När sa de det? Har aldrig hört detta från dem. Man kan dock ha en tolkning att de varianter med mixed precision FMA enheter såsom Navi12 och Navi14 är "fullständig RDNA", och starka indikationer på ett utbyggt system för att göra plats för intersection hårdvara vid texturenheterna.

Citat:

Ett patent som avtäcktes tidigare i år antyder att AMD valt att utrusta befintlig arkitektur med ray tracing-kapacitet, istället för dedikerade RT-enheter likt de som används i Nvidias Turing-arkitektur i Geforce RTX-familjen.

Skrivet av EntropyQ3:

Dessutom stämmer ju inte ”ray tracing cores” mad AMD:s patent, så vad är det som kommer att implementeras egentligen?

Om man läser patentet blir det dock ytterst klart att de har även täckt in fallet med a traversal sker i fixed function hårdvara. Vilket gör att den i stort sett inte alls skiljer sig från Turing.

[0023] "Based on the results of the intersection testing, a state machine determines how the shader units should advance its internal stack (traversal stack) and traverse the BVH tree. The state machine can be fixed function or programmable."

[0035] "Alternatively, shader functionality can be implemented partially or fully as fixed-function, non-programmable hardware external to the compute unit"

[0048] "It should be understood that many variations are possible based on the disclosure herein."

Läser man [0024] låter det mer som att det är ett val. "Flexibility is preserved since the shader unit can still control the overall calculation and can bypass the fixed function hardware where needed and still get the performance advantage of the fixed function hardware."

Citat från patentet som stödjer en fixed function traversal

Visst är det otroligt att man kan läsa samma sak med ett helt nytt perspektiv långt senare? Det här kräver dock att man är grammar nazi lvl 999.

Skrivet av Paddanx:

RT hade varit ett kanon "extra kort" om det hade kunnat göras så. Se det som "dual-gpu" lösning i DX12, med ett RT optimerat kort du kan köpa till.

Nope. Detta hade behövt att man duplicerar resurser (vilket leder till att totalkostnaden blir mycket högre, skulle inte förvåna mig om det blev 1.5-1.8k dollar totalt (1000 för huvudkortet och ~500-800 dollar för acceleratorn) för att få något som motsvarar en 2080ti). Minnessystem, VRAM för BVH och scendata, cache dupliceras, schemaläggare, etc etc. Samtidigt utgör det en liten del av kretsytan , vilket är helt i linje med tidigare forskning. Att få det sålt till renderingsfarmar är nog inget problem , men för spel så är det både svårsålt och inte helt optimalt (då det introducerar synkronisering,minnesöverföringar och så som kan ta upp en hel del tid. Om vi har flera olika effekter som i control så blir det extra jobbigt). Sedan så har vi shading efteråt som måste ske på det andra kortet.

Det finns även ett mysterium (iallafall för mig) med just Turing och RT. När RT Cores körs så körs alltid FP32 och INT32 kärnorna samtidigt i de exempel som NVIDIA visat, och de arbetar med någonting väldigt relaterat till RT lasten (ingen annan del reduceras). Om det är så att de håller på med en last relaterat till RT som de inte direkt specificerat... så kan det bli så att allting blir mycket mer komplicerat. AMD och NVIDIA har förmodligen gjort alla beräkningar och gått igenom alla detaljer, så jag litar på att de fattar smarta val.

Skrivet av loevet:

Om man ska titta specifikt på nästa generations konsoler har jag väldigt svårt att se att Sony och Microsoft har budget för dedikerade RT-kärnor i stil med Nvidias lösning. De är stora, använder många transistorer, medför en hel del kostnader och ökar krav på ström/värmebudget. I en spelkonsol med begränsad budget för såväl pris som transistormängd, strömförbrukning och värmeutveckling har jag svårt att se att AMD skulle klämma in RT-kärnor i en konsol-SoC. Särskilt eftersom inte alla utvecklare kommer använda funktionen, och då blir det bortslösade budgetresurser.

Ur det avseendet förefaller AMD-patentet med utökade shader-enheter betydligt mer rimligt för en konsol-SoC. Utvecklare kan utnyttja RT-funktionen om de vill, men om de inte gör det är belastningen på kretsens budget förhållandevis väldigt liten jämfört med fullödiga RT-enheter. Så rent spekulativt tror jag att hans uttalande enbart refererar till att konsolens "grafikkärnor" är RT-kapabla, inte att det handlar om dedikerade enheter för ändamålet.

Med tanke på att det går att få in den hårdvara som krävs genom att öka arean med några få procent så lär det inte vara något större problem (utan kostnader de tagit hänsyn till). Att ha en fixed function tillståndsmaskin utöver det som de redan lägger in, är nog inte hela världen. Inte heller verkar de ha otillräckligt med cache för att få allt att fungera. Vi får se helt enkelt, men de kommer nog maximera vad de kan få ut från den hårdvara som de väljer.