Överklockad AMD Ryzen 7 4700G piskar Radeon RX 550 i 3DMark

Permalänk
Cyberman

Överklockad AMD Ryzen 7 4700G piskar Radeon RX 550 i 3DMark

Kommande APU-processorn i familjen "Renoir" visar att det ännu finns liv i grafikarkitekturen Vega, som når 5 100 poäng i 3DMark.

Läs hela artikeln här

Permalänk
Medlem

En av de mest intressanta produktsläppen på flera år imo. Gillar verkligen APU-erna men tyvärr har de inte kunnat leverera tillräcklig prestanda tidigare.

Permalänk
Medlem

Prestanda som ett RX 550 är ju faktiskt riktigt imponerande av en APU. Det innebär att enklare spel som typ Fortnite och Overwatch kan köras i 1080p medium-high, medan man till och med kan få moderna, krävande spel som Red Dead Redemption 2 att fungera i låga inställningar med lite upscaling (typ 720p->1080p). Alltså på samma nivå som dagens konsoller ungefär, om inte lite bättre.

Permalänk
Medlem

Vi har väntat bra länge på 4XXX serien nu...
Hinner Intel skramla ihop "something big" för att möta Ryzen's senaste tillskott?

Permalänk
Datavetare

Missar jag något eller är nyheten att en kommande APU kan tänkas få prestanda i nivå med denna dGPU? 1,2 TFLOP och 112 GB/s bandbredd.

Är inte det rätt väntat? Och om inte, kanske läge att skriva en lite notis om vad som sas om Apples kommande "APU". Där nämndes följande om förväntad GPU-prestanda

"The Apple Silicon GPU will return false when queried for isLowPower because its performance is at least as good as the discrete GPU performance in current Macs, while offering a much better performance/watt ratio."

Om det markerade faktiskt visar sig stämma borde det handla om RX 5500M prestanda, en GPU som har runt 3,3 gånger högre teoretiskt beräkningskraft jämfört med Radeon RX 550.

Om det stämmer börjar nog Intel/AMD få rätt mycket att svettas kring vad det gäller konkurrens på laptop-marknaden!

Det går inte att direkt avfärda påståendet. En huvudflaskhals för integrerade GPUer är bandbredd mot RAM, fast just det "löser" ju Apples variant genom att köra "tile-based rendering" så de mest bandbreddshungriga delarna kan utföras mot SRAM i GPUn (där det är relativt enkelt att ha rejäl bandbredd). Inte en framkomlig väg för AMD/Intel då inte ens DX12 har stöd för TBDR (däremot har Vulkan det). Apples Metal API är ju specifikt designad för TBDR.

Det skrivet, lutar ändå åt en ASUS PN50 med Ryzen 7-4800U som innehåller en AMD Radeon RX Vega 8 med 1,8 TFLOP så man har tillgång till en GPU från varje "läger"

Permalänk
Medlem

Jag vill se spelprestanda med dedikerad grafik då jag gissar att den kommer vara AMDs bästa spelprocessor eftersom det är så mycket lägre minneslatens

Permalänk
Medlem
Skrivet av Yoshman:

Missar jag något eller är nyheten att en kommande APU kan tänkas få prestanda i nivå med denna dGPU? 1,2 TFLOP och 112 GB/s bandbredd.

Är inte det rätt väntat? Och om inte, kanske läge att skriva en lite notis om vad som sas om Apples kommande "APU". Där nämndes följande om förväntad GPU-prestanda

"The Apple Silicon GPU will return false when queried for isLowPower because its performance is at least as good as the discrete GPU performance in current Macs, while offering a much better performance/watt ratio."

Om det markerade faktiskt visar sig stämma borde det handla om RX 5500M prestanda, en GPU som har runt 3,3 gånger högre teoretiskt beräkningskraft jämfört med Radeon RX 550.

Om det stämmer börjar nog Intel/AMD få rätt mycket att svettas kring vad det gäller konkurrens på laptop-marknaden!

Det går inte att direkt avfärda påståendet. En huvudflaskhals för integrerade GPUer är bandbredd mot RAM, fast just det "löser" ju Apples variant genom att köra "tile-based rendering" så de mest bandbreddshungriga delarna kan utföras mot SRAM i GPUn (där det är relativt enkelt att ha rejäl bandbredd). Inte en framkomlig väg för AMD/Intel då inte ens DX12 har stöd för TBDR (däremot har Vulkan det). Apples Metal API är ju specifikt designad för TBDR.

Det skrivet, lutar ändå åt en ASUS PN50 med Ryzen 7-4800U som innehåller en AMD Radeon RX Vega 8 med 1,8 TFLOP så man har tillgång till en GPU från varje "läger"

Problemet är väl att Apple kör lite i sin egen klass. Även om de kommer nu med bättre prestanda så är det fortfarande liten konkurrans mot Intel och AMD då väldigt få lär byta till MAC endast för detta samt med hänsyn för Apples prispåslag och att bootcamp är lite meh.

Dock lite kul nu att det faktiskt kommer så stora framsteg från flera aktörer.

Permalänk
Datavetare
Skrivet av Commander:

Problemet är väl att Apple kör lite i sin egen klass. Även om de kommer nu med bättre prestanda så är det fortfarande liten konkurrans mot Intel och AMD då väldigt få lär byta till MAC endast för detta samt med hänsyn för Apples prispåslag och att bootcamp är lite meh.

Dock lite kul nu att det faktiskt kommer så stora framsteg från flera aktörer.

Om det stämmer har de i alla fall visat vad som är tekniskt möjligt om man lyfter ribban lite över omedelbar marknivå

För just integrerade GPUer tror jag man måste skapa två klasser. De flesta behöver bara "grafik" av en sådan sort att vilken GPU som helst duger. Man bör ha produkter med det stödet.

Det man kan ifrågasätta är den halvdana nivå som APU haft så här långt och nu Intel verkar lägga sig med Xe: vad är poängen? Det är för långsamt för allt utom de enklaste spelen och det är onödigt mycket kisel för att driva runt webbläsaren och Word.

"Killer-app" för integrerad GPU tror jag är GPGPU, detta då bandbredd mot RAM är ett icke-problem för många problem samt att lösa saker med GPGPU ger långt bättre perf/W än att göra det med CPU i de fall som fungerar OK på GPGPU. Problemet här är att man måste enas om ett API (Apple "löser" ju det genom att diktera APIet, så GPGPU där är alltid Metal-compute som garanterat fungerar på alla aktuella Apple-produkter).

Permalänk
Skribent
Skrivet av Yoshman:

Missar jag något eller är nyheten att en kommande APU kan tänkas få prestanda i nivå med denna dGPU? 1,2 TFLOP och 112 GB/s bandbredd.

Är inte det rätt väntat? Och om inte, kanske läge att skriva en lite notis om vad som sas om Apples kommande "APU". Där nämndes följande om förväntad GPU-prestanda

"The Apple Silicon GPU will return false when queried for isLowPower because its performance is at least as good as the discrete GPU performance in current Macs, while offering a much better performance/watt ratio."

Om det markerade faktiskt visar sig stämma borde det handla om RX 5500M prestanda, en GPU som har runt 3,3 gånger högre teoretiskt beräkningskraft jämfört med Radeon RX 550.

Om det stämmer börjar nog Intel/AMD få rätt mycket att svettas kring vad det gäller konkurrens på laptop-marknaden!

Det går inte att direkt avfärda påståendet. En huvudflaskhals för integrerade GPUer är bandbredd mot RAM, fast just det "löser" ju Apples variant genom att köra "tile-based rendering" så de mest bandbreddshungriga delarna kan utföras mot SRAM i GPUn (där det är relativt enkelt att ha rejäl bandbredd). Inte en framkomlig väg för AMD/Intel då inte ens DX12 har stöd för TBDR (däremot har Vulkan det). Apples Metal API är ju specifikt designad för TBDR.

Det skrivet, lutar ändå åt en ASUS PN50 med Ryzen 7-4800U som innehåller en AMD Radeon RX Vega 8 med 1,8 TFLOP så man har tillgång till en GPU från varje "läger"

Prestandan har förstås gått att räkna på, men viss besvikelse infann sig när det visade sig att det blev max åtta Vega-CU:s i Renoir. Mot den bakgrunden tycker jag att prestandan är rätt het, drar man in Picasso i jämförelsen blir det ännu bättre.

Permalänk
Medlem

Men då kan vi konstatera att prestandan på integrerade kretsar är uppe i nivå med HD7970 som släpptes 2011. Jag hoppades på att man skulle ha kommit lite längre.

Permalänk
Medlem

Tyvärr enl senaste rykten så kan det vara att de kommer ut till OEM endast. Vi får se snart om det stämmer.

Permalänk
Medlem

Så Zen 3 kommer vara 5000-serien då? Rörigt.

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Så Zen 3 kommer vara 5000-serien då? Rörigt.

Troligen blir det så för laptop, men desktop 4000. Laptop har haft en generation gammal arkitektur senaste åren

Permalänk
Medlem
Skrivet av medbor:

Troligen blir det så för laptop, men desktop 4000. Laptop har haft en generation gammal arkitektur senaste åren

Jo det är sant. Men blir den här 4000 och Zen 3 4000 så blir det ännu rörigare

Permalänk
Medlem
Skrivet av Yoshman:

Missar jag något eller är nyheten att en kommande APU kan tänkas få prestanda i nivå med denna dGPU? 1,2 TFLOP och 112 GB/s bandbredd.

Är inte det rätt väntat? Och om inte, kanske läge att skriva en lite notis om vad som sas om Apples kommande "APU". Där nämndes följande om förväntad GPU-prestanda

"The Apple Silicon GPU will return false when queried for isLowPower because its performance is at least as good as the discrete GPU performance in current Macs, while offering a much better performance/watt ratio."

Om det markerade faktiskt visar sig stämma borde det handla om RX 5500M prestanda, en GPU som har runt 3,3 gånger högre teoretiskt beräkningskraft jämfört med Radeon RX 550.

Om det stämmer börjar nog Intel/AMD få rätt mycket att svettas kring vad det gäller konkurrens på laptop-marknaden!

Det går inte att direkt avfärda påståendet. En huvudflaskhals för integrerade GPUer är bandbredd mot RAM, fast just det "löser" ju Apples variant genom att köra "tile-based rendering" så de mest bandbreddshungriga delarna kan utföras mot SRAM i GPUn (där det är relativt enkelt att ha rejäl bandbredd). Inte en framkomlig väg för AMD/Intel då inte ens DX12 har stöd för TBDR (däremot har Vulkan det). Apples Metal API är ju specifikt designad för TBDR.

Det skrivet, lutar ändå åt en ASUS PN50 med Ryzen 7-4800U som innehåller en AMD Radeon RX Vega 8 med 1,8 TFLOP så man har tillgång till en GPU från varje "läger"

Vad Apple lovar gällande prestanda ger jag inte mycket för. De kör PowerPc-racet igen. Då påstod de att de körde cirklar runt Intels processorer och alla i sekten höll med. Så kommer det bli igen. Verkligheten visade sig vara en annan och de hoppade på Inteltåget för att komma i fatt. Jämförelser blir svåra eftersom de inte är kompatibla med varandra och kör helt annan kod med olika optimeringar. Deras Apple Silicon produkter kommer säkerligen slå Intel och AMD/Nvidia gällande strömförbrukning eftersom ARM har ett försprång där, men i övrigt får de det väldigt tufft. Den jämförelse jag sett hittils imponerade inte. Då jämförde de flertrådad prestanda. Intels svagaste dubbelkärniga I3 processor mot en Apple Silicon CPU med betydligt flera kärnor och inte ens då övertygade Apple....

Permalänk
Medlem

Snälla SweClockers, jamsa inte med i AMD:s marknadsavdelnings fåniga benämning – "APU" – för CPU:er med integrerad grafik. Det blir bara förvirrat. Alternativt kalla alla sådana för "APU", oavsett tillverkare.

Permalänk
Medlem
Skrivet av Ceji:

Vad Apple lovar gällande prestanda ger jag inte mycket för. De kör PowerPc-racet igen. Då påstod de att de körde cirklar runt Intels processorer och alla i sekten höll med. Så kommer det bli igen. Verkligheten visade sig vara en annan och de hoppade på Inteltåget för att komma i fatt. Jämförelser blir svåra eftersom de inte är kompatibla med varandra och kör helt annan kod med olika optimeringar. Deras Apple Silicon produkter kommer säkerligen slå Intel och AMD/Nvidia gällande strömförbrukning eftersom ARM har ett försprång där, men i övrigt får de det väldigt tufft. Den jämförelse jag sett hittils imponerade inte. Då jämförde de flertrådad prestanda. Intels svagaste dubbelkärniga I3 processor mot en Apple Silicon CPU med betydligt flera kärnor och inte ens då övertygade Apple....

Nu vet jag inte vad du sett för jämförelser, men processorn i iPhone 11 (A13) har bättre singeltrådad prestanda än Intels alla processorer. Då jämförs alltså en processor från en mobiltelefon med halverad klockfrekvens (under 3GHz) med Intels på upp till 5GHz.

Jag säger inte att det kommer vara så lätt i alla lägen, men redan förra årets processor till mobiler är alltså snabbare. Om de lyckas bygga en processor med fler kärnor borde de kunna kämpa med liknande prestanda med långt under halverad strömförbrukning

Vi får såklart se vart det landar till slut, men de har stabilt ökat 20-30% varje år. Chansen finns definitivt att du har fel

Permalänk
Datavetare
Skrivet av Ceji:

Vad Apple lovar gällande prestanda ger jag inte mycket för. De kör PowerPc-racet igen. Då påstod de att de körde cirklar runt Intels processorer och alla i sekten höll med. Så kommer det bli igen. Verkligheten visade sig vara en annan och de hoppade på Inteltåget för att komma i fatt. Jämförelser blir svåra eftersom de inte är kompatibla med varandra och kör helt annan kod med olika optimeringar. Deras Apple Silicon produkter kommer säkerligen slå Intel och AMD/Nvidia gällande strömförbrukning eftersom ARM har ett försprång där, men i övrigt får de det väldigt tufft. Den jämförelse jag sett hittils imponerade inte. Då jämförde de flertrådad prestanda. Intels svagaste dubbelkärniga I3 processor mot en Apple Silicon CPU med betydligt flera kärnor och inte ens då övertygade Apple....

Fast vi har ju redan sett prov på GPU-prestanda, de körde SoTR i emulerat läge (d.v.s. de körde x86 versionen på en ARM CPU) på A12Z (en snart två år gammal CPU med något upphottad GPU till förra årets Ipad pro) och det rullat på bättre än någon integrerad GPU jag sett så här långt. Vad det gäller CPU-delen vet vi, tack vare 3:e parts tester, att redan förra året hade en design som utför ~80 % mer per cykel jämfört med Skylake/Zen 2.

Det är inte på något sätt PowerPC racet igen, för där var man bara konkurrenskraftig i vissa flyttalstunga fall. Nu är det framförallt i heltalsberäkningar (som är långt viktigare för svensson) som man totalt demolerar AMD/Intel i (i lägen där TDP hindrar AMD/Intel från att klocka sina kretsar speciellt högt i praktiken, d.v.s. tunna bärbara datorer).

Brukar sällan känna hype inför kommande lanseringar, är en pessimist som hoppas bli positivt överraskad. Samma här faktiskt, det enda jag undrar är hur mycket Apple kommer få Intel/AMD att framstå som stenålders sett till prestanda för bärbara, inte om det kommer bli resultat. Har bara nivån ställd på "i nivå med Tiger Lake fast bättre perf/W", det kan bli betydligt bättre än så.

På GPU-sidan borde ändå både Intel och framförallt AMD kunna svara upp, så blir spännande att se vad AMD kan koka ihop i kommande iGPUer1 om nu Apple och kanske även Intel (ryktet säger att Xe i Tiger Lake U ska nå Nvidia 1650-1650S nivå) petar upp ribban ett par snäpp för iGPUer.

1 Låt oss bara kalla det för vad det är, iGPU samt dGPU för integrerad GPU och diskret GPU), APU är faktiskt lite skämskudde då "A" i APU stör för "accelerated" och det är en punkt där AMD rätt ordentligt fallerar just nu då deras APUer inte stödjer AMDs officiella GPGPU API, HIP.

Permalänk
Medlem

@Yoshman: Jag är försiktigt pessimistisk till Apples GPU. Varför? Svaret är enkelt att de inte har nån direkt erfarenhet av GPU-design, speciellt för datorer.

Kan de göra något energisnålt, antagligen, kan de göra något som mäter sig med de andra? Det skulle vara kul, men nä tror inte det.

Att gå en egen väg med t.ex. TBR gör ju också att man kan hamna i en liknande situation som PS3s CELL kärnor.
Många utvecklare struntade helt i att utveckla till dem då det var för krångligt.

Lägger UE5 och Unity till samma feature level som moderna DX12 kort kan det ju bli en helt annan sak, men det finns risk att det närmaste är mobil-spel-gpu-feature level då många av dem också använder TBR.

Permalänk
Medlem
Skrivet av Yoshman:

1 Låt oss bara kalla det för vad det är, iGPU samt dGPU för integrerad GPU och diskret GPU), APU är faktiskt lite skämskudde då "A" i APU stör för "accelerated" och det är en punkt där AMD rätt ordentligt fallerar just nu då deras APUer inte stödjer AMDs officiella GPGPU API, HIP.

Har för mig att resonemanget bakom att kalla dem APU var för att CPU och GPU kunde arbeta på samma minne, och därmed att du kunde "accelerera" dina applikationer med GPUn utan att behöva kopiera mellan minnen först.

AMD var ju väldigt tidiga med att arbeta på HSA, tyvärr kunde dock inte första generationerna APU faktiska köra någon implementation av HSA vad jag minns (Wikipedia antyder att det saknades IOMMUv2 för integrerade GPUn).

Sedan har ju Intel fortfarande inte ens IOMMU/VT-d på alla CPUer med inbyggd grafik så det tar nog ett tag innan riktig HSA kommer till Intel. Totalt sidospår men jag tycker idén bakom HSA är riktigt häftig så det är AMD som gäller för mig.

Permalänk
Medlem

Tror det här vittnar en smula om hur läget sett ut de senaste åren, AMD har tidigare haft den sämre CPU-prestandan men ofta parat med en generellt hög GPU-prestanda för APU:er.
Intel har varit tvärt om.
Så tyvärr, någon större konkurrens var det inte tal om, man kunde helt enkelt inte få tag på bra APU:er för vettig peng som presterade bra på båda fronter tidigare, men nu ser det ut att kunna bli en ändring på det.

Nu hoppas jag på stark frammarsch hos båda läger för jag vill se rejäla framsteg på APU-fronten de kommande åren, grafiksegmenten ser spännande ut på många sätt med många duktiga aktörer och samtidigt är RISC-plattformen tillbaka i ringen både för servrar, laptops och allt däremellan.

AMD och nVidia har även dem doppat sina tår i ARM's plaskdam så jag hoppas verkligen på en gynnsam utveckling och konkurrens nu!

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Jo det är sant. Men blir den här 4000 och Zen 3 4000 så blir det ännu rörigare

Det är som tidigare generation 2400g och 3400g körde någon variant av zen+.

Det är inte rörigare än att om du behöver en apu får du acceptera att du inte får senaste cpu kärnorna.
Om de hade blandat så även de vanliga var zen 2,
ex 4600 zen 2, 4600x zen3, 4700x zen 2, och 4800x zen3 då vore det rörigt på riktigt.

Permalänk
Datavetare
Skrivet av Djhg2000:

Har för mig att resonemanget bakom att kalla dem APU var för att CPU och GPU kunde arbeta på samma minne, och därmed att du kunde "accelerera" dina applikationer med GPUn utan att behöva kopiera mellan minnen först.

AMD var ju väldigt tidiga med att arbeta på HSA, tyvärr kunde dock inte första generationerna APU faktiska köra någon implementation av HSA vad jag minns (Wikipedia antyder att det saknades IOMMUv2 för integrerade GPUn).

Sedan har ju Intel fortfarande inte ens IOMMU/VT-d på alla CPUer med inbyggd grafik så det tar nog ett tag innan riktig HSA kommer till Intel. Totalt sidospår men jag tycker idén bakom HSA är riktigt häftig så det är AMD som gäller för mig.

Är helt med på den ursprungliga orsaken till att kalla dessa kretsar för APU. AMD hade en helt sund vision (AMD Fusion) runt att skapa en plattform som skulle göra det möjligt att använda både CPU och GPU (beroende på vilken som är bäst lämpad för aktuell uppgift). En hel del av detta arbete skedde inom ramen för HSA för 5-6 år sedan.

Problemet AMD aldrig lyckats lösa är hur man som applikationsutvecklare faktiskt ska kunna använda dessa APU på något vettigt sätt. I praktiken har de aldrig blivit något annat än en CPU med traditionell integrerad GPU, historiskt har dock prestanda i AMDs iGPUer varit högre än Intel och ARM-lägret.

Numera är prestanda rätt snarlik i Intels, AMDs och även vissa ARM-systemkretsar när det kommer till GPU-prestanda. AMD har lagt till en del finesser för att tightare integrera CPU och GPU, men skulle hävda att de numera sladdar efter de andra. Apple, Intel, Qualcomm och vissa tillverkare som använder ARMs Mali-krets har idag en design där CPU och GPU delar LLC (last level cache, L3$ i Intel och kallas typiskt "system-cache" hos ARM-systemkretsarna). AMDs APUer är fortfarande en CPU och en GPU som råkar dela krets och RAM, mer integrerad än så är det inte.

HSA har rätt mycket spelat ut som roll, HSA definierade aldrig ett API som utvecklare kunde använda och precis som OpenCL 2.x innehåller HSA delar som är i praktiken omöjlig för t.ex. Nvidia att implementera (möjligen kan de göra det när PCIe 5 och CXL lanseras, men inte innan). Så svårt att se hur HSA någonsin skulle ha kunna blivit den "breda" standarden för GPGPU. AMD kan självklart använda (vilket man också gör t.ex. i deras OpenCL drivare) det jobb man gjort inom HSA, det som ett HAL (Hardware Abstraction Layer).

Intel skulle åtminstone från gen8 (Broadwell) kunna ha implementera HSA då huvudingrediensen i HSA är detta:

"Among its main features, HSA defines a unified virtual address space for compute devices: where GPUs traditionally have their own memory, separate from the main (CPU) memory, HSA requires these devices to share page tables so that devices can exchange data by sharing pointers."

Båda de markerade egenskaperna var en av de stora nyheterna i OpenCL 2.0, där lades även atomära instruktioner till. Allt detta implementerar Intel sedan gen8.

Nvidia hade en väldigt bra teknisk anledning att vägra OpenCL 2.0 stöd, vissa av dessa saker kan helt enkelt inte implementeras med någon rimlig effektivitet på deras GPUer över standard PCIe. Vidare var OpenCL allt för plottrigt att jobba med för programmerare, det är precis som HSA mer lämpligt som HAL för något vettigare API. Khronos har själva också insett detta, man har gjort en reset på OpenCL (v3.0) som i praktiken är OpenCL 1.2 med SPIR-V stöd.

Och här är något som ställer till det ännu lite mer för HSA. SPIR-V (som lanserades redan 2015), används av shaders i OpenGL, Vulkan samt OpenCL 2.1 och senare samt används av SYCL. HSA har sin egen variant av intermediärt språk, HSA Intermediate Layer (HSAIL), vilket är det AMDs drivare använder. HSAIL och SPIR-V är inte kompatibla, vilket leder till problem för AMD då de använder HSA som HAL: de stödjer t.ex. SPIR-V delen av OpenCL 2.1 p.g.a. det och man har inget eget SYCL stöd.

Nämnde SYCL, så vad är det? Det är "OpenCL-done-right"! SYCL har en chans att utmana CUDA då det inte är en ren rip-off (AMDs HIP är i princip en Radeon-kompatibel version av CUDA ett par generationer sedan), varför skulle man byta från CUDA om man inte får något bättre? SYCL är, till skillnad från både CUDA och OpenCL, 100 % standard ISO C++17 (och man har jobbat in värdefulla nya saker till ISO C++20). D.v.s. inga problem att köra samma kod på CPU, GPU, FPGA eller vad man nu tänker göra.

Vidare har SYCL lite andra trevliga egenskaper, som t.ex. att man redan vid kompilering kan reda ut beroenden mellan olika jobb så minnestransaktioner (t.ex. om man har en dGPU med separat minne) automatiskt kan läggas in med erforderlig synkronisering, motsvarande går tekniskt att göra i CUDA men måste göras manuellt (och gör man fel blir det ett race-condition).

SYCL löser logiskt sett det HSA försökte lösa genom att lägga restriktioner på HW, i de fall CPU och GPU faktiskt har en homogen vy av RAM så går det helt enkelt bara snabbare (inget behöver göras för flytta data).

Slutligen löser SYCL en av akilleshälarna med GPGPU i "vanliga" applikationer: det måste finnas en vettig lösning för system som saknar "acceleratorer". SYCL är standard ISO C++17, så kan köras på alla CPUer men man kan även utnyttja flera CPU-kärnor och SIMD då det är relativt enkelt när problemet är beskrivet på ett dataparallellt sätt (vilket är ett krav för att de ska fungera bra på GPGPU).

TL;DR
Intel är på väg ut med oneAPI (som bl.a. använder SYCL/SPIR-V för GPGPU, oneAPI har nu också nativestöd för Nvidia vilket är kritiskt då de dominerar GPGPU), CodePlay (som drog igång SYCL innan Khronos tog över) har ett SYCL-ramverk som fungerar på alla GPUer med OpenCL+SPIR-V stöd (hela grejen med OpenCL 3.0 lär vara som HAL för SYCL). Apple har Metal-compute som fungerar på alla deras system, även nuvarande AMD och Intel GPUer.

APU är skämskudde då det i praktiken bara är en CPU och GPU som delar krets och RAM, sett till finesser och tillgängliga APIer ligger nu AMD och sladdar efter de flesta andra. Det man pushar är HIP (en CUDA-rip-off), fast den stödjer för närvarande varken RDNA eller APUer!