Stort lyft i grafikprestanda med AMD:s Ryzen 6000 för bärbara datorer

Permalänk
Melding Plague

Stort lyft i grafikprestanda med AMD:s Ryzen 6000 för bärbara datorer

Bärbara datorer med färska "Rembrandt"-processorer ser ut att bli en stor post på CES. Nu framkommer att RDNA 2 och 50 procent extra beräkningsenheter kan stå på menyn.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

Bra. Vi börjar komma till ett skede där de inbyggda gpuerna räcker åt nästan alla. Undantag är såklart stora gruppen gamers. Men resterande användare är försumbara i det stora hela sett till jordens X antal miljarder datoranvändare. Förutom bra prestanda vill vi på laptops se energieffektivt.

Min gissing är att en dag kommer även ram och ssd bli integrerat, men det krävs praktisk att denna utveckling stagnerar först. Även om det går att utrusta sin dator med extra så vill man inte betala kanske 20 000kr för detta ni idag, om det i morgon går att köpa för 2000kr. (tillverkarna är dyra vid tillvalet)

Angående laptops VS desktop. Så vill vi många ha desktop fortfarande. Men på de flesta arbetsplatser är detta val helt omöjligt. Det spelar ingen roll hur man argumenterar, man ska ha en laptop och anpassa sitt jobb därefter.. Orsaken är flera, en är att en laptop användare ska kunna ta över projektet efter en. Så man inte sitter och skapar lösningar som det först finns laptops som klarar av att hantera om 5år eller så..

*edit*
Min gissning är att skulle gamers försvinna från desktop så kommer desktop i princip dö ut. Den lilla skaran som fortfarande köper dessa genererar ej mycket pengar till utveckling och det blir bara dyrt.

Permalänk
Medlem

Låter mumma! Och priset för dessa bakelser?

.

Visa signatur

AMD Thunderbird 1.33 GHz (133 MHz Bus), Epox 8K7A, 1 x 256MB Corsair PC2100 DDR SDRAM, 20.5GB 7200 RPM Western Digital EIDE, Visiontek GeForce 3

Permalänk
Medlem

Kommer dess med stackad cache också? Känns som att grafikdelen skulle se stor vinst med den också...

IGP på ryzen har ju varit lite eftersatt ett tag, så dags att ta steget nu

Permalänk
Skrivmaskin
Skrivet av medbor:

Kommer dess med stackad cache också? Känns som att grafikdelen skulle se stor vinst med den också...

IGP på ryzen har ju varit lite eftersatt ett tag, så dags att ta steget nu

Nej, så verkar inte bli fallet. Således riskerar det att återigen bli lite rörigt när olika arkitekturer används för samma generation av stationära och bärbara processorer, vilket (mestadels) rättades till med Ryzen 5000. Alternativet att 3D V-Cache-versionerna får refresh-namn som Ryzen 5000XT finns ju också, men svaret lär komma på tisdag.

Permalänk
Medlem
Skrivet av Wittwang:

Nej, så verkar inte bli fallet. Således riskerar det att återigen bli lite rörigt när olika arkitekturer används för samma generation av stationära och bärbara processorer, vilket (mestadels) rättades till med Ryzen 5000. Alternativet att 3D V-Cache-versionerna får refresh-namn som Ryzen 5000XT finns ju också, men svaret lär komma på tisdag.

Det är ju inte RTX 2000 i alla fall

Permalänk
Medlem
Skrivet av SweMerlin:

Låter mumma! Och priset för dessa bakelser?

.

Förhoppningsvis mer prisvärt än dagens grafikkort. Åtminstone om man tar hänsyn till att det ingår en CPU "i priset".

Visa signatur

AMD Ryzen 7 5800X3D | EVGA GeForce RTX 3080 10GB FTW3 ULTRA | ASUS ROG Strix B450-F Gaming | Corsair RM750X V2 | Crucial Ballistix Sport LT 3200MHz 16GB | Samsung 980 Pro 1TB | Crucial MX500 2TB | NZXT H500

Permalänk
Datavetare

"Har du användning av kraftfull integrerad grafik för stationärt eller bärbart bruk? Berätta i kommentarstråden!"

För att använda AMDs nu ~14 år gamla slogan "the future is fusion"!!!

Så länge man designar iGPUer som AMD, Intel, Qualcomm, ARM m.fl. slår man i samma fundamentala flaskhalsar: i första hand blir bandbredd mot RAM en flaskhals, i andra hand blir TDP en flaskhals. Enda vägarna runt detta är dyra lösningar likt vad Apple nu gör med M1 Pro/Max eller något likt vad Intel gjorde ett tag (primärt för Apple) med eDRAM.

Kvoten mellan dGPU och iGPU prestanda har inte ändrats speciellt mycket genom åren, då PC-spel och andra grafik-krävande applikationer i första hand designas för dGPU kommer dessa applikationer inte vara speciellt roliga att köra på traditionella iGPU-lösningar.

Vad man däremot kan göra är utnyttja beräkningskraften hos iGPU till andra saker än grafik. Det var exakt vad AMD pushade för efter uppköpet av ATI. Fördelarna är flera, bl.a. så har inte deras GPU-design samma legacy-ankare som de måste dra runt med för CPUer (vilket också var något AMD belyste när de pushade för "fusion") men framförallt är en GPU mer specialiserad jämfört en CPU. En GPU kan inte göra allt (på ett effektivt sätt), men det den kan göra är ofta långt mer effektivt att göra där jämfört med att göra på CPU.

Apple pushar väldigt hårt för detta sedan lanseringen av M1. T.ex. kommer nästa version av Blender stödja Apples Metal API, de resultat som hittat ut så här långt visar att redan grundmodellen av M1 (den med svagast iGPU av alla M1-varianter) ungefär dubblade nästan tripplade prestanda i Blender genom att använda iGPU (vilket blir väsentligt snabbare än någon Intel/AMD laptop CPU i Blender om dessa saknar Nvidia dGPU). Utöver att iGPUn redan finns där får man även fördelen att en iGPU delar RAM med CPU, d.v.s. man kan även hantera de fall som inte lämpar sig gör GPGPU på dGPU p.g.a. för lite VRAM!

Ett konkret fall över hur mycket bättre även en iGPU kan vara jämfört med CPU är denna artikel. Tittar man specifikt på matrismultiplikation (går att göra rätt effektivt på CPU m.h.a. SSE/AVX) når en 5600X ~0,5 TFLOPS. iGPU hos dagens bärbara Intel/AMD har redan 2-3 gånger högre prestanda, M1 Max kan med iGPU-accelererade ramverk som t.ex. TensorFlow nå ~8 TFLOPS, d.v.s. 16 gånger mer än en 6C/12T desktop CPU!

Huvudproblemet för AMD är inte avsaknad av RDNA2 stöd. Huvudproblemet är att de i praktiken helt saknar GPGPU stöd på APUer. OpenCL är i princip dött, nämnt både Blender och Tensorflow och båda dessa går mot HIP på AMD GPUer (Blender 3.0 droppar helt OpenCL stödet). Problemet är att HIP helt saknar stöd för APU! Det samtidigt som både Apple och numera även Intel (via OneAPI) får in iGPU-stöd i allt fler applikationer.

Klicka för mer information

https://github.com/RadeonOpenCompute/ROCm#supported-cpus

"AMD "Raven Ridge" APUs are enabled to run OpenCL, but do not yet support HIP or our libraries built on top of these compilers and runtimes."

Visa mer

Edit: men tyvärr går saker i fel riktigt på Windows/Linux-sidan. GPGPU används allt mer, men tyvärr ofta bara i form av CUDA (samt Metal på MacOS, men det hjälper inte PC-ägare). OpenCL var rätt chanslöst mot CUDA då det är tekniskt underlägset, när Apple (som grundande OpenCL) gick över till Metal var OpenCL rätt dödsdömt.

Nvidia är föga förvånande rätt nöjda med CUDAs dominas, men det gör iGPU-stöd på Windows/Linux rätt mycket till en no-go... Intel och AMD borde sammarbeta här, men i stället satsar de på sina respektive egna lösningar. AMD kör med deras HIP, Intel med deras OneAPI som i.o.f.s. delvis bygger på Khronos SyCL, SyCL används av flera ARM tillverkare samt även av Xilinx (AMD har köpt det företaget).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Yoshman:

"Har du användning av kraftfull integrerad grafik för stationärt eller bärbart bruk? Berätta i kommentarstråden!"

För att använda AMDs nu ~14 år gamla slogan "the future is fusion"!!!

Så länge man designar iGPUer som AMD, Intel, Qualcomm, ARM m.fl. slår man i samma fundamentala flaskhalsar: i första hand blir bandbredd mot RAM en flaskhals, i andra hand blir TDP en flaskhals. Enda vägarna runt detta är dyra lösningar likt vad Apple nu gör med M1 Pro/Max eller något likt vad Intel gjorde ett tag (primärt för Apple) med eDRAM.

Kvoten mellan dGPU och iGPU prestanda har inte ändrats speciellt mycket genom åren, då PC-spel och andra grafik-krävande applikationer i första hand designas för dGPU kommer dessa applikationer inte vara speciellt roliga att köra på traditionella iGPU-lösningar.

Vad man däremot kan göra är utnyttja beräkningskraften hos iGPU till andra saker än grafik. Det var exakt vad AMD pushade för efter uppköpet av ATI. Fördelarna är flera, bl.a. så har inte deras GPU-design samma legacy-ankare som de måste dra runt med för CPUer (vilket också var något AMD belyste när de pushade för "fusion") men framförallt är en GPU mer specialiserad jämfört en CPU. En GPU kan inte göra allt (på ett effektivt sätt), men det den kan göra är ofta långt mer effektivt att göra där jämfört med att göra på CPU.

Apple pushar väldigt hårt för detta sedan lanseringen av M1. T.ex. kommer nästa version av Blender stödja Apples Metal API, de resultat som hittat ut så här långt visar att redan grundmodellen av M1 (den med svagast iGPU av alla M1-varianter) ungefär dubblade prestanda i Blender genom att använda iGPU (vilket blir väsentligt snabbare än någon Intel/AMD laptop CPU i Blender om dessa saknar Nvidia dGPU). Utöver att iGPUn redan finns där får man även fördelen att en iGPU delar RAM med CPU, d.v.s. man kan även hantera de fall som inte lämpar sig gör GPGPU på dGPU p.g.a. för lite VRAM!

Ett konkret fall över hur mycket bättre även en iGPU kan vara jämfört med CPU är denna artikel. Tittar man specifikt på matrismultiplikation (går att göra rätt effektivt på CPU m.h.a. SSE/AVX) når en 5600X ~0,5 TFLOPS. iGPU hos dagens bärbara Intel/AMD har redan 2-3 gånger högre prestanda, M1 Max kan med iGPU-accelererade ramverk som t.ex. TensorFlow nå ~8 TFLOPS, d.v.s. 16 gånger mer än en 6C/12T desktop CPU!

Huvudproblemet för AMD är inte avsaknad av RDNA2 stöd. Huvudproblemet är att de i praktiken helt saknar GPGPU stöd på APUer. OpenCL är i princip dött, nämnt både Blender och Tensorflow och båda dessa går mot HIP på AMD GPUer (Blender 3.0 droppar helt OpenCL stödet). Problemet är att HIP helt saknar stöd för APU! Det samtidigt som både Apple och numera även Intel (via OneAPI) får in iGPU-stöd i allt fler applikationer.

Klicka för mer information

https://github.com/RadeonOpenCompute/ROCm#supported-cpus

"AMD "Raven Ridge" APUs are enabled to run OpenCL, but do not yet support HIP or our libraries built on top of these compilers and runtimes."

Visa mer

Edit: men tyvärr går saker i fel riktigt på Windows/Linux-sidan. GPGPU används allt mer, men tyvärr ofta bara i form av CUDA (samt Metal på MacOS, men det hjälper inte PC-ägare). OpenCL var rätt chanslöst mot CUDA då det är tekniskt underlägset, när Apple (som grundande OpenCL) gick över till Metal var OpenCL rätt dödsdömt.

Nvidia är föga förvånande rätt nöjda med CUDAs dominas, men det gör iGPU-stöd på Windows/Linux rätt mycket till en no-go... Intel och AMD borde sammarbeta här, men i stället satsar de på sina respektive egna lösningar (AMD kör med deras HIP, Intel med deras OneAPI som i.o.f.s. delvis bygger på Khronos SyCL, vilket även används av flera ARM tillverkare).

Kryptering är välkänt användning av iGpu, annat är Ai.

Frågan är dock var utvecklingen går åt. Jag tror att den stora skaran kommer driva utvecklingen framåt och det hela tiden blir som är bäst för dessa.
Och då är kompakta ultraportabla laptops det som gäller. Saker som ger marginell prestandaförbättring men ökar strömförbrukningen som leder till en drös problem som på alla sätt gör datorn sämre. (sämre batteritid, mer högljud, slitagedelar, tyngre/klumpigare, mer kostsam, varmare o.s.v)

När det gäller Apples lösning så är det inbyggda ram och ssd något som resulterar i bra prestanda. Det är bara det att sedan hemdatorerna kom på 1970 talet så har ram och internt lagring aldrig någonsin räckt. Det har under dessa snart 50år varit ett dåligt val att köpa ej uppgraderingsbart. Folk har sagt saker som fattar du inte hur mycket 2MB ram är? Och en vanlig hemanvändare kan inte ha behov av att nyttja mer.. Och de kan rada upp hur komplicerade saker de kan göra med 2MB ram och kanske 50MB hdd och kan inte ens föreställa sig något mer krävande datorlaster på en laptop/desktop. Ju närmare nutid i kommer ju högre siffror säger folk, argumentet är dock exakt detsamma.

Jag tror som sagt att en dag blir Apples lösning med integrerat ssd och ram i framtiden är den vinnande, men det beror på att folks datorer mer går att bli tunna klienter med en webbläsare. Där det egentligen kvittar var för dator man använder, för lasterna körs ändå ej på den. Jag tror det dock är lite tidigt just ännu för detta.
Sedan en stagnering av utvecklingen påverkar. Skulle utvecklingen stanna upp, ja då kan man vid nyköp välja den mängd av allt som man kommer ha under hela maskinens livstid.

*edit*
Listan med nackdelar av mindre strömeffektiva lösningar går nästan göras oändlig. T.o.m bidra till höjd temp på kontor i varma länder. Därför tror jag på sikt att våra datorer kommer gå emot mer kompakt enkretslösning. Det som skulle kunna hindra vore att folk ville ha brutal datakraft hemma, men går utvecklingen ditåt?

Permalänk
Datavetare
Skrivet av lillaankan_i_dammen:

Kryptering är välkänt användning av iGpu, annat är Ai.

Varför skulle man köra kryptering på iGPU när både x86 och ARM64 har integrerad krypto-acceleration (AES) som del av ISA (och som i praktiken implementeras via dedicerat kisel)?

AI är typexempel på något som borde utnyttja iGPU just då det är beräkningsintensivt, men ofta inte speciellt bandbreddskrävande. Samma gäller rendering i t.ex. Blender. Problemet är att på Windows/Linux saknas i praktiken stöd för att använda iGPU för att accelerera detta p.g.a. bristande mjukvarustöd. (BTW: blev fel ovan, M1 får inte 2x prestandaökning av att använda sin iGPU i Blender, ökningen är nära nog 3x!).

Skrivet av lillaankan_i_dammen:

Frågan är dock var utvecklingen går åt. Jag tror att den stora skaran kommer driva utvecklingen framåt och det hela tiden blir som är bäst för dessa.
Och då är kompakta ultraportabla laptops det som gäller. Saker som ger marginell prestandaförbättring men ökar strömförbrukningen somem leder till en drös problem som på alla sätt gör datorn sämre. (sämre batteritid, mer högljud, slitagedelar, tyngre/klumpigare, mer kostsam o.s.v)

Och just därför är GPGPU på iGPU en direkt lysande idé. Dessa ultratunna kommer inte ha dGPU, genom att använda GPGPU på iGPU ökar perf/W rejält för de fall som faktiskt lämpar sig för att köra på GPU!

Skrivet av lillaankan_i_dammen:

När det gäller Apples lösning så är det inbyggda ram och ssd något som resulterar i bra prestanda. Det är bara det att sedan hemdatorerna kom på 1970 talet så har ram och internt lagring aldrig någonsin räckt. Det har under dessa snart 50år varit ett dåligt val att köpa ej uppgraderingsbart. Folk har sagt saker som fattar du inte hur mycket 2MB ram är? Och en vanlig hemanvändare kan inte ha behov av att nyttja mer.. Och de kan radda upp hur komplicerade saker de kan göra med 2MB ram och kanske 50MB hdd och kan inte ens föreställa sig mer krävande datorlaster på en laptop/desktop. Ju närmare nutid i kommer ju högre siffror säger folk, argumentet är dock exakt detsamma.

Gissar att det är ett icke-problem för majoriteten. En bärbar dator lever sällan mer än en handfull år, sedan är batteri, tangentbord och liknande rätt slitna + utvecklingen har sprungit ifrån datorn. SSD:er verkar aldrig kunna vara stora nog, men då allt är uppkopplat går lagring att lösa på andra sätt. Har personligen aldrig varit begränsad av mängden RAM på en bärbar, har oftare varit så att jag betalat dyrt för att vara "på säkra sidan" men i slutändan har datorn som helhet varit för klen att ta sig an uppgifter där mängden RAM börjar bli en flaskhals.

I fallet M1 finns inget speciellt med RAM, det är helt vanligt dual-channel LP-DDR4X 3733MT/s (som råkar ligga i samma paket som CPUn, det är inte integrerat i CPU). Både AMD och Intel har idag bärbara med lika snabbt RAM (Intel/AMD nuvarande CPUer stödjer upp till LPDDR4X 4266 MT/s). Enda speciella med Pro/Max är att man kör 4- resp. 8-kanaler i en mobilplattform. Det är dyrt, men ger helt nya möjligheter för iGPU-prestanda.

D.v.s. både Intel och AMD kan med fördel använda dagens iGPUer för att accelerera saker via GPGPU. Men för att det ska hända måste man jobba stenhårt med programvarubiten. Nvidia "vann" p.g.a. överlägsen programvara, inte p.g.a. att de skulle vara bättre på HW-sidan.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

De mest intressanta verkar vara att Zen4 får 4 kanalers DDR5, vilket kan indikera på att det kan bli en slot per kanal i.a.f. till en början.

Permalänk
Medlem
Skrivet av HappyPie:

De mest intressanta verkar vara att Zen4 får 4 kanalers DDR5, vilket kan indikera på att det kan bli en slot per kanal i.a.f. till en början.

Alder Lake är också 4 kanaler DDR5

Kanalerna på DDR5 är bara 32-bit breda, hälften av tidigare generationer. Alltså är det två kanaler på varje modul vilket är lite spännande i sig

Permalänk
Skrivet av HappyPie:

De mest intressanta verkar vara att Zen4 får 4 kanalers DDR5, vilket kan indikera på att det kan bli en slot per kanal i.a.f. till en början.

Kör inte DDR5 två kanaler internt?

Permalänk
Medlem

Prestandalyftet har vi redan sett hos Steam Deck jämfört med andra handhållna PCs som använder Vega. Med samma energiförbrukning kan RDNA2 klockas betydligt högre än Vega och i sin tur ge stora prestandavinster. Detta utnyttjas också av nya generationens konsoler som utnyttjar RDNA2s förmåga att klockas högt som resulterar i relativt högpresterande system. RDNA2 verkar vara riktigt bra på att uppnå höga frekvenser vid låg energiförbrukning.

Tillägg: Sen har själva arkitekturen "RDNA2" ett relativt prestandalyft från Vega på ca 30%. Många bäckar små...

Permalänk
Rekordmedlem

Mycket spännande men inte bra nog men eftersom Intel är på gång med seriös grafik så får vi hoppas de kommer med sin motsvarighet till apuer så att det blir konkurrens.
Att integrera en del av ram i samma enhet tror jag på men låt oss slippa ssder innan man löst problemen med att de har begränsad livslängd eller låt oss få nått nytt mer likt att man får en typ ny typ av programmerbart ram som det i princip aldrig skrivs till mer än vid uppdateringar där man lagrar sitt os så att det alltid finns där och är i princip omöjligt att ändra på för skadliga program, lite mer som det var förr i tiden när man slapp diskbaserade os.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem

Skulle vara kul om AM5 kan komma med 256-bit totala minneskanaler, alltså full hastighet på 4 moduler DDR5, det skulle göra IGP till något mycket mer potent, men gissar att plattformen kanske blir för dyr då?

Permalänk
Rekordmedlem
Skrivet av medbor:

Skulle vara kul om AM5 kan komma med 256-bit totala minneskanaler, alltså full hastighet på 4 moduler DDR5, det skulle göra IGP till något mycket mer potent, men gissar att plattformen kanske blir för dyr då?

Vore väl bättre att integrera en vettig mängd snabbt minne i apun som kan användas till "vad som helst" som en grund och så har man det mer konventionella socklade externa minnet som en minnesexpansion som funkar som dagens ram, alla behöver ju ram så att ha tex 16-32 Gbyte integrerat så att man kan köra apun utan att addera ram i enklare byggen och addera mer externt om man vill öka prestandan vore vettigt.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem
Skrivet av mrqaffe:

Vore väl bättre att integrera en vettig mängd snabbt minne i apun som kan användas till "vad som helst" som en grund och så har man det mer konventionella socklade externa minnet som en minnesexpansion som funkar som dagens ram, alla behöver ju ram så att ha tex 16-32 Gbyte integrerat så att man kan köra apun utan att addera ram i enklare byggen och addera mer externt om man vill öka prestandan vore vettigt.

Jag trodde länge de tänkte göra det med HBM och APUs, men det hände aldrig. 4/8GB HBM skulle göra spännande saker helt klart. Problemet är väl att latenser inte är samma, så tror det blir bökigt med ’NUMA’ och sånt. Skulle dock vara kul att se

Permalänk
Medlem
Skrivet av Dinkefing:

Kör inte DDR5 två kanaler internt?

det känner jag inte till

Permalänk
Medlem

Den "stora" grejen med dessa är ändå att AMD når 5 Ghz.. o detta på Laptop.

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem

En liten bild på den nya Ryzen 6000

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av Yoshman:

Edit: men tyvärr går saker i fel riktigt på Windows/Linux-sidan. GPGPU används allt mer, men tyvärr ofta bara i form av CUDA (samt Metal på MacOS, men det hjälper inte PC-ägare). OpenCL var rätt chanslöst mot CUDA då det är tekniskt underlägset, när Apple (som grundande OpenCL) gick över till Metal var OpenCL rätt dödsdömt.

Nvidia är föga förvånande rätt nöjda med CUDAs dominas, men det gör iGPU-stöd på Windows/Linux rätt mycket till en no-go... Intel och AMD borde sammarbeta här, men i stället satsar de på sina respektive egna lösningar. AMD kör med deras HIP, Intel med deras OneAPI som i.o.f.s. delvis bygger på Khronos SyCL, SyCL används av flera ARM tillverkare samt även av Xilinx (AMD har köpt det företaget).

Detta får mig att tänka lite på Microsoft och om de har något att säga till om här med tanke på deras försiktiga push mot öppen mjukvara. De har ju till synes ett litet nytt fokus genom Surface-gruppen på att förbättra chippen (Qualcomm/SQx-samarbetet var väl kanske inget banbrytande), men rykten från i höst nämner nu ett tightare samarbete med AMD för att tillsammans utveckla egna ARM-chip. Har de måntro även sett begränsningarna och 'fragmenteringen' idag och filar på någon standard eller tom vidareutveckling av något eget?

Wintel är ju inte riktigt vad det en gång var, men hade kanske inte varit helt fel om OneAPI assimilerats in i Winborg för nån form av hårdvaruagnostisk framtid. DirectX kanske borde fräschas upp för detta ändamål. AMD, Nvidia och Intel (samt allehanda ARM-producenter) har nog alla en nytta i att Windows fungerar så väl det går...

Visa signatur

"The irony of the Information Age is that it has given new respectability to uninformed opinion."