Intels Raja Koduri antyder hög prestandanivå för spelorienterade Xe-HPG

Permalänk
Medlem
Skrivet av dagas:

För ett par år sedan tänkte jag att ingen lär köpa intel GPU men i dagens läge lär du sälja aölt de kan tillverka även om de inte är lika bra som AMD och nvidia.

Ja. Dom behöver verkligen inte vara snabbast. Eller speciellt snabba alls för den delen.
Jag har ett 1070 och ett kort i klass med 2070 Super/2080 är en stor uppgradering.
Tar Intel sig dit med allt som behövs för att vi kunder ska vara nöjda med köpet och för rätt pris så kommer korten sälja som smör.
Mer än så behöver inte Intel just denna första lansering.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

Det händer mycket på 10 år, t.ex. det här med PC:n's död, som det skrevs hej-vilt om för nära 10 år sedan, har jag inte riktigt upplevt vara så verklighetsförankrat ännu.

Med det sagt är man van vid att inte ta ut någon seger i förskott men om Intel kan börja leverera grafiklösningar som mäter sig med AMD/nVidia (behöver inte nödvändigtvis, vara bättre men i närheten av) så är iaf. inte jag sen att applådera det! Intel brukar kunna vara on-par med Linux-stödet så det bådar kanske gott. Gott att kunna ha (kanske) ännu en tillverkare att välja på när man vill ha det senaste. Dessutom kanske även stöd för OpenCL/Compute direkt vid launch för saker som Folding@Home och video encoding/stream.

Kan absolut tänka mig ett Xe kort om de även funkar bra ihop med AMD CPU:er eller om Intel får till det med vettiga Xe APU:er. Lite för tidigt att säga någondera ännu men hoppas kan man ju alltid.

Vi behöver en 3:e spelare inom GPU lika mycket som vi skulle behöva en 3:e spelare inom CPU segmentet -fast där kanske det istället blir en ny arkitektur som tågar in i stället (tänker på ARM eller liknande RISC utmanare.)

Den som lever få se.

Visa signatur

Tower: ace Battle IV | CPU AMD Phenom II X2 BE unlocked 4cores@3,2GHz | RAM 8GB DDR2@800MHz | MB ASUS M4A785-M | GFK AMD Radeon HD 6850 1GB | HDD Kingston SSD Now 60GB (/) Seagate 2TB(/home) | OS Ubuntu 20.04 LTS
-Numera titulerad: "dator-hipster" då jag har en AMD GPU och dessutom kör Linux.

Permalänk
Medlem

Noterar att inget nämns om raytracing, men man ska väl räkna med att även Intel kommer halka efter rätt kraftigt på den fronten.

Visa signatur

Rigg: Intel Core i7-8700K @ 3,7 GHz, 32GB RAM (3200 MHz), ASUS TUF RTX 3080, Corsair TX850M
Tillbehör: Iiyama ProLite X4372UHSU (43", 4K), Razer Naga Hex MOBA, Func KB-460 (Cherry MX Red)
NAS: Synology Diskstation 413j + 4 * 3TB WD RED

Permalänk
Medlem

Visst skulle det vara jätte kul om intel lyckades konkurrera i topp eller övre mellan segmentet men jag tror det först när jag ser det.

Visa signatur

| Ryzen 5800x | Asus prime x470 pro | Asus rtx 3080 tuf oc | Gskill 32gb 3,6ghz | aw3225qf |

Permalänk
Medlem
Skrivet av Thursday:

Noterar att inget nämns om raytracing, men man ska väl räkna med att även Intel kommer halka efter rätt kraftigt på den fronten.

Intel’s chief architect Raja Koduri today announced that the company has

“added a fourth microarchitecture to the Xe family: Xe-HPG optimized for gaming, with many new graphics features including ray tracing support. We expect to ship this microarchitecture in 2021 and I can’t wait to get my hands on this GPU!”

Heja intel!
https://www.pcgamesn.com/intel/xe-hpg-ray-tracing

Permalänk
Medlem
Skrivet av hejsann:

Intel’s chief architect Raja Koduri today announced that the company has

“added a fourth microarchitecture to the Xe family: Xe-HPG optimized for gaming, with many new graphics features including ray tracing support. We expect to ship this microarchitecture in 2021 and I can’t wait to get my hands on this GPU!”

Heja intel!
https://www.pcgamesn.com/intel/xe-hpg-ray-tracing

Hoppas verkligen att de levererar!

Visa signatur

Rigg: Intel Core i7-8700K @ 3,7 GHz, 32GB RAM (3200 MHz), ASUS TUF RTX 3080, Corsair TX850M
Tillbehör: Iiyama ProLite X4372UHSU (43", 4K), Razer Naga Hex MOBA, Func KB-460 (Cherry MX Red)
NAS: Synology Diskstation 413j + 4 * 3TB WD RED

Permalänk
Medlem

De har lyckats förvånansvärt bra är mitt första intryckt om de skulle lyckas ta fram något i stil med RTX 3070 med ett första försök med högpresterande grafikkort.

Visa signatur

Intel® Core i7-13700K @ 5.7/5.6GHz | ASRock Z690 Extreme | G.Skill Trident Z 32GB @ DDR4-3400 CL14 | Samsung EVO series M.2 + Sata SSDs 2TB | Intel Arc A750 | SuperFlower Titanium 1000W | Gigabyte M32Q 32"/1440p 165Hz | Arctic Freezer II 360 AIO | Phanteks P500A D-RGB | Windows 10 & 11 x64 Professional

Permalänk
Medlem
Skrivet av Maaxan:

Till skillnad mot AMD och Nvidia menar du?😋

Dom två mupparna har väl inte yttrat en sann mening de senaste 12 månaderna.

Nej då. Handlar snarare om nivåer här. Intel har åratal av liknande påståenden som visat sig vara struntprat. Raja likaså. AMD och Nvidia är trovärdiga i jämförelse. Vem minns inte t.ex. hela RX 480-debaclet?

Skrivet av SwedenVirre:

För att prestandan är inte så bra som man hoppats på, därför drar dom upp 2012 för att demonstrera att: "såhär långt har vi kommit, 20x prstandan sen vi tog tag ordentligt i detta projektet! osvosv"

Det är iaf den jargonen som det brukar vara när saker som detta nämns.

Är ännu mer luddigt att det inte ens nämns vad det är för produkt från 2012 man jämför med. Jämför man med Intels egna integrerade kretsar t.ex.? Vilket vore som att jämföra med en sten och dess förmåga att flyta.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av stoffe_83:

Finns det någon prisindikation och när är det tänkt att dessa kort ska ut på marknaden? Redan i år kanske?

Är väl sagt att det ska dyka upp i år för serverhallarna har de ju redan skeppat en drös samples.

Skrivet av jehuty:

Kommer korten produceras i sina egna fabriker? Gör dom det kanske Intel är dom enda som kommer kunna leverera gpus.

För oss spelkonsumenter så tillverkas de hos tsmc var det på såkallade 6 eller 7nm minns ej. För datahallar & arbetsstationer så tillverkar de själva på intel 10nm & självklart i bärbara & i processorerna, intressant att de tillverkar de mer lönsamma datakrävande på egna 10nm istället för det lägre nm talet hos tsmc ska bli intressant & se prestandan på både arbetsstation-varianterna som prestandan på spelorienterade korten. Sen är det väl inte (kanske) så lång tid innan de tillverkar på 7nm på intel oxå var det 2022-2023?
Det intressanta är utifall de lyckas komma med några kort till vettiga priser, är nog det som oroar mig mest.
Känns konstigt med att de tillverkar kort hos tsmc troligtvis för att åtminstånde i början tillverka kort till rimligare priser men är bara min gissning. Sen får man väl se om dessa rykterna stämmer oxå.

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av Reiker:

Japp, kollar man på deras grafikmjukvara som ligger inlagd i de flesta arbetslaptops så finns det en lång väg att gå där...

Det hela känns lite som om detta var en nyhet om att en stor mopedbilstillverkare skulle lansera en supersportbil.

"Ja det kommer inte bli några problem för de har byggt flera miljoner bilar redan och har massa erfarenhet!"

Javisst, förutom att de har noll erfarenhet av att bygga något i det segmentet...

Permalänk
Datavetare
Skrivet av Herr Kantarell:

Jag har inte tänkt på att OneAPI är öppet. Det vore ju kul om AMD började stödja det.

Har kan du se idag vilka spel som optimerats för intels (antagligen inbyggda GPUer)
https://gameplay.intel.com/

Även mer krävande spel som t.ex. Battlefield 5. (har svårt att tro att det blir en trevlig upplevelse med de nu existerande korten dock.)

Var exakt det jag menade ovan. Intel verkar faktiskt ha stoppat in rejält med resurser som jobbar med programvarusidan av deras GPU-satsning, så mycket talar för att deras drivrutiner håller riktigt bra nivå.

Nu har jag primärt använt deras GPU drivers för GPGPU (OneAPI och OpenCL), där pekar allt på att programvaran håller riktigt hög nivå. Sett till korrekthet verkar de även göra ett fint jobb för grafikdelen också.

Problemet med spel, eller egentligen vilken stor komplicerad programvara som helst, är att det krävs två för att dansa tango. GPU-tillverkarna måste göra sin del, gör man ett dåligt jobb där är det liksom kört.

Men då komplicerade programvaror har sina egna buggar, i GPU-fallet är det största problemet att man använder APIerna på felaktigt sätt, kan man mycket väl hamna i situationen att det strular på en viss GPU trots att dess driver i sig kanske är helt korrekt.

Det sista har jag sett flera exempel på i OpenCL program. Programmen fungerade på AMD GPUer då utvecklarna av programvaran använde sådan kort för testning. Det fungerande inte på Intels GPU då koden var felaktig, d.v.s. den följde inte OpenCL specifikationen, vilket Intels driver helt korrekt påpekade och vägrade köra programmet.

Som användare ser man bara: det fungerar på AMD GPUer, men inte på Intel GPU. Slutsats: Intels drivare suger
Men rätt slutsats här är att var buggar i AMDs drivare som gjorde det möjligt att skriva ett inkorrekt program som "råkade" fungera på avsett sätt. Finns massor av sådana exempel i spel, fall där speltillverkarna har testat på Nvidia och AMD och egentligen bara kommit fram till att eventuella buggar inte märks när man kör på Nvidia/AMD (det gäller buggar på "båda" sidor, d.v.s både i programmet och i drivers, tillsammans "fungerar" det).

Det du länkar ovan kan till viss del vara ett plåster, d.v.s. man "fixar" till GPU-programvaran så den fungerar för specifika buggar i spel, men det är en ganska bräckligt och resursintensivt metod. Den långsiktiga lösningen för Intel är att de måste komma in på marknaden så pass att speltillverkarna börjar testa även med deras GPUer.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Var exakt det jag menade ovan. Intel verkar faktiskt ha stoppat in rejält med resurser som jobbar med programvarusidan av deras GPU-satsning, så mycket talar för att deras drivrutiner håller riktigt bra nivå.

Nu har jag primärt använt deras GPU drivers för GPGPU (OneAPI och OpenCL), där pekar allt på att programvaran håller riktigt hög nivå. Sett till korrekthet verkar de även göra ett fint jobb för grafikdelen också.

Problemet med spel, eller egentligen vilken stor komplicerad programvara som helst, är att det krävs två för att dansa tango. GPU-tillverkarna måste göra sin del, gör man ett dåligt jobb där är det liksom kört.

Men då komplicerade programvaror har sina egna buggar, i GPU-fallet är det största problemet att man använder APIerna på felaktigt sätt, kan man mycket väl hamna i situationen att det strular på en viss GPU trots att dess driver i sig kanske är helt korrekt.

Det sista har jag sett flera exempel på i OpenCL program. Programmen fungerade på AMD GPUer då utvecklarna av programvaran använde sådan kort för testning. Det fungerande inte på Intels GPU då koden var felaktig, d.v.s. den följde inte OpenCL specifikationen, vilket Intels driver helt korrekt påpekade och vägrade köra programmet.

Som användare ser man bara: det fungerar på AMD GPUer, men inte på Intel GPU. Slutsats: Intels drivare suger
Men rätt slutsats här är att var buggar i AMDs drivare som gjorde det möjligt att skriva ett inkorrekt program som "råkade" fungera på avsett sätt. Finns massor av sådana exempel i spel, fall där speltillverkarna har testat på Nvidia och AMD och egentligen bara kommit fram till att eventuella buggar inte märks när man kör på Nvidia/AMD (det gäller buggar på "båda" sidor, d.v.s både i programmet och i drivers, tillsammans "fungerar" det).

Det du länkar ovan kan till viss del vara ett plåster, d.v.s. man "fixar" till GPU-programvaran så den fungerar för specifika buggar i spel, men det är en ganska bräckligt och resursintensivt metod. Den långsiktiga lösningen för Intel är att de måste komma in på marknaden så pass att speltillverkarna börjar testa även med deras GPUer.

Oja! Mycket plåstrande och har varit det historiskt för både nVidia och AMD.

Det handlar inte om rena fixar utan också att lägga ut jobbet mer "korrekt" på hårdvaran. Där har ju både nVidia och AMD vunnit runt 3-10% i många titlar. Tog bara ett random exempel nedan:
https://www.pcgamer.com/amds-releases-a-new-gpu-driver-to-boo...

AMD hade ju gott rykte för att de gjorde detta för t.ex. 7970 länge medans nVidia slutade optimera för äldre Kepler kort.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av Herr Kantarell:

AMD hade ju gott rykte för att de gjorde detta för t.ex. 7970 länge medans nVidia slutade optimera för äldre Kepler kort.

Man ska inte glömma att 7970 hade en 350mm2 gpu på 3.8 Tflops med 265GB/s vram bandbredd mot 680 på 295mm2 med 3.2 Tflops med 192GB/s bandbredd, trots detta så hade 680 runt 10% bättre prestanda vid release. Samt att 7970 arkitektur liknar mer den primära plattformen för spelutveckling närmaste åren (ps4, xbox one)

Man kan ju se detta på lite olika sätt, Kepler var ju redan väldigt optimerat relativt mot gcn. Fanns det så mycket prestanda kvar att hämta? Sen visst är det trevligt att många AMD kort åldrades bra, men personligen så tar jag det lugnt med ryggdunkande när dom underpresterade så enormt under den primära livslängden. Jag hade ett 7970 som jag bytte bort och jag hade tagit den där prestandan dag ett istället för microstutter osv 😅 När den relativa prestanda mot Kepler hade skiftat ordentligt var jag ändå på på nyare kort, så inte gjorde den mig mycket lyckligare.

Permalänk
Medlem
Skrivet av sKRUVARN:

Man ska inte glömma att 7970 hade en 350mm2 gpu på 3.8 Tflops med 265GB/s vram bandbredd mot 680 på 295mm2 med 3.2 Tflops med 192GB/s bandbredd, trots detta så hade 680 runt 10% bättre prestanda vid release. Samt att 7970 arkitektur liknar mer den primära plattformen för spelutveckling närmaste åren (ps4, xbox one)

Man kan ju se detta på lite olika sätt, Kepler var ju redan väldigt optimerat relativt mot gcn. Fanns det så mycket prestanda kvar att hämta? Sen visst är det trevligt att många AMD kort åldrades bra, men personligen så tar jag det lugnt med ryggdunkande när dom underpresterade så enormt under den primära livslängden. Jag hade ett 7970 som jag bytte bort och jag hade tagit den där prestandan dag ett istället för microstutter osv 😅 När den relativa prestanda mot Kepler hade skiftat ordentligt var jag ändå på på nyare kort, så inte gjorde den mig mycket lyckligare.

Problemet med 7970 var ju att det kanske släpptes med undermåliga drivrutiner men sen förbättrader + optimering för spel.

Hade jag fått skriva om historien så hade jag köpt ett 7970 och sen uppgraderat till ett 1080 ti.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Skrivet av DevilsDad:

Garfikdrivrutiner är ju inte direkt något nytt för intel. Är rätt hoppfull med tanke på hur bra intels drivrutiner fungerat i Linux. Fick bäffre prestanda i minecraft med det integrerade i U-varianten av 8000 seriens i7:a jämfört med nvidias mx150.

6gb versionen av 1060 kostade ganska precis 3k. 3gb varianten, (som även hade färre beräkningsenheter) kostade lite drygt 2k. Sedan om man inte anstränger sig för att misstolka så är det ett rimligt antagande att det handlar om prisklassen och inte prestandan...

Jag hoppas på hyfsad prestanda och SR-IOV så att jag kan dela GPU med min Windows VM istället för att ha 2st. (Har NVIDIA och AMD idag, gillar INTE NVIDIA sen deras köp av ARM, Mellanox och CumulusNetworks).