AMD och ARM samarbetar i HSA Foundation

Permalänk
Melding Plague

AMD och ARM samarbetar i HSA Foundation

Generella beräkningar på processorns integrerade grafikdel är något framför allt AMD satsar stort på. Nu hoppas företaget på att konceptet ska få fäste i vardagen genom en allians med bland annat ARM och Texas Instruments.

Läs artikeln

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Jag känner mig tveksam till att det verkligen får genomslag, då det känns som en resurskrävande lösning för själva datorerna.
Men det hade varit trevligt med lite framsteg på fronten.

Permalänk
Medlem

Kan någon förklara vad fördelen är med att utföra beräkningar på en GPU jmf med en 'vanlig' processor, rendering och output till skärm etc är en GPU förhoppnignsvis bättre på men i vilka andra uppgifter skulle en GPU vara att föredra?

Permalänk
Skrivet av Limpanax:

Kan någon förklara vad fördelen är med att utföra beräkningar på en GPU jmf med en 'vanlig' processor, rendering och output till skärm etc är en GPU förhoppnignsvis bättre på men i vilka andra uppgifter skulle en GPU vara att föredra?

Konvertera videos tex kan dra nytta av en GPU. Här så är ett HD5770 snabbare än en överklockad i7 960 som tickar på i 3.75ghz tex. Det är med andra ord oftast betydligt mer effektivt att använda en GPU sett till tiden det tar och strömförbrukningen. Sen finns där inte ett jättestort användningsområde för att använda GPU än men det kommer förhoppningsvis ta fart med denna alliansen.

http://www.guru3d.com/article/radeon-hd-5770-review-test/23

Jag vet inte om man testat detta med nyare grafikkort? Sen har Intel Quicksync också som är väldigt snabbt. Vet inte hur mycket olika saker man kan använda den till dock.

Ska bli spännande att följa denna alliansen!

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Medlem
Skrivet av Limpanax:

Kan någon förklara vad fördelen är med att utföra beräkningar på en GPU jmf med en 'vanlig' processor, rendering och output till skärm etc är en GPU förhoppnignsvis bättre på men i vilka andra uppgifter skulle en GPU vara att föredra?

Jag är tyvärr inte jätte insatt i området men det finns en hel del att läsa om det om du googlar. Här har du en läng till en avhandling från KTH som belyser ämnet http://web.it.kth.se/~johanmon/theses/hartman.pdf

Permalänk
Hjälpsam
Skrivet av Limpanax:

Kan någon förklara vad fördelen är med att utföra beräkningar på en GPU jmf med en 'vanlig' processor, rendering och output till skärm etc är en GPU förhoppnignsvis bättre på men i vilka andra uppgifter skulle en GPU vara att föredra?

Extremt förenklat och antagligen en hel del faktafel, men för att ge en bild av skillnanden.

Så gott som alla former av beräkningar som kan parallelliseras. Grafikkort i dag består av mängde med streamprocessorer eller liknande enheter beroende på arkitektur som i sig är rätt klena men är rätt många.

x86 arkitekturen bygger på en rad instruktioner för specialiserade beräkningar vilket har sin plats i linjära beräkningar. x86 kärnan är som en pipeline där du trycker in en fråga i ena ändan och får ett svar i andra ändan, röret är ganska långt och hanterar en sak i sänder men klarar av rätt avancerade uppgifter.

Grafikkärnan kan snabbt utföra enklare mattematiska beräkningar, och då det är många kärnor blir det väldigt mycket gjort.

Exempel på parallella beräkningar kan vara packa/packa upp filer, encoda video/musik, Folding@home, Photoshop filter och generellt där du har massa beräkningar som är från förutsägbar data.

Ett spel tex (spelmotorn inte grafiken) är inte särskilt linjär utan beräkningarna som skall göras beror helt beroende på realtidsinput etc.

Visa signatur

Allt jag säger/skriver här är mina egna åsikter och är inte relaterade till någon organisation eller arbetsgivare.

Jag är en Professionell Nörd - Mina unboxing och produkttester (Youtube)
Om du mot förmodan vill lyssna på mig - Galleri min 800D med 570 Phantom SLI

Permalänk
Relik 📜
Skrivet av Limpanax:

Kan någon förklara vad fördelen är med att utföra beräkningar på en GPU jmf med en 'vanlig' processor, rendering och output till skärm etc är en GPU förhoppnignsvis bättre på men i vilka andra uppgifter skulle en GPU vara att föredra?

Skrivet av Swedish Berserk:

Konvertera videos tex kan dra nytta av en GPU. Här så är ett HD5770 snabbare än en överklockad i7 960 som tickar på i 3.75ghz tex.

http://www.guru3d.com/article/radeon-hd-5770-review-test/23

Jag vet inte om man testat detta med nyare grafikkort? Sen har Intel Quicksync också som är väldigt snabbt. Vet inte hur mycket olika saker man kan använda den till dock.

Ska bli spännande att följa denna alliansen!

En grafikprocessor är i allmänhet duktig på uppgifter som går att parallellisera väldigt hårt, och där varje enskild beräkning är minimalt beroende av andra. Det leder till att stora problem kan brytas upp i små delar, där bokstavligt talat tusentals kan behandlas på samma gång mot endast ett fåtal på "vanliga" x86-kärnor. Belastningar klassade som "Embarrassingly parallel" brukar lyftas fram.

EDIT: För långsam.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Skrivet av Fluf:

Extremt förenklat och antagligen en hel del faktafel, men för att ge en bild av skillnanden.

Så gott som alla former av beräkningar som kan parallelliseras. Grafikkort i dag består av mängde med streamprocessorer eller liknande enheter beroende på arkitektur som i sig är rätt klena men är rätt många.

x86 arkitekturen bygger på en rad instruktioner för specialiserade beräkningar vilket har sin plats i linjära beräkningar. x86 kärnan är som en pipeline där du trycker in en fråga i ena ändan och får ett svar i andra ändan, röret är ganska långt och hanterar en sak i sänder men klarar av rätt avancerade uppgifter.

Grafikkärnan kan snabbt utföra enklare mattematiska beräkningar, och då det är många kärnor blir det väldigt mycket gjort.

Exempel på parallella beräkningar kan vara packa/packa upp filer, encoda video/musik, Folding@home, Photoshop filter och generellt där du har massa beräkningar som är från förutsägbar data.

Ett spel tex (spelmotorn inte grafiken) är inte särskilt linjär utan beräkningarna som skall göras beror helt beroende på realtidsinput etc.

Skrivet av Emil B:

En grafikprocessor är i allmänhet duktig på uppgifter som går att parallellisera väldigt hårt, och där varje enskild beräkning är minimalt beroende av andra. Det leder till att stora problem kan brytas upp i små delar, där bokstavligt talat tusentals kan behandlas på samma gång mot endast ett fåtal på "vanliga" x86-kärnor. Belastningar klassade som "Embarrassingly parallel" brukar lyftas fram.

EDIT: För långsam.

Tack för två bra förklaringar!

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Medlem

Då kanske det blir bättre drivrutiner för Linux, med tanke på om detta ska köras i beräkningskluster?

Permalänk
Skrivet av ronnylov:

Då kanske det blir bättre drivrutiner för Linux, med tanke på om detta ska köras i beräkningskluster?

Inte omöjligt.

Detta gillar jag skarpt. AMD och ARM! Tackar inte nej till AMD APUer i en telefon.

Visa signatur

Apple Mac Mini

Permalänk
Medlem
Skrivet av Swedish Berserk:

Konvertera videos tex kan dra nytta av en GPU. Här så är ett HD5770 snabbare än en överklockad i7 960 som tickar på i 3.75ghz tex. Det är med andra ord oftast betydligt mer effektivt att använda en GPU sett till tiden det tar och strömförbrukningen. Sen finns där inte ett jättestort användningsområde för att använda GPU än men det kommer förhoppningsvis ta fart med denna alliansen.

http://www.guru3d.com/article/radeon-hd-5770-review-test/23

Jag vet inte om man testat detta med nyare grafikkort? Sen har Intel Quicksync också som är väldigt snabbt. Vet inte hur mycket olika saker man kan använda den till dock.

Ska bli spännande att följa denna alliansen!

GPUer har klart en plats även vid video konverteringar, och de har blivit bättre, men x264 levererar bättre resultat också vid inställningar som prioriterar snabbhet framför kvalitet.

Håller med om att det är bra med samarbete på det här området, både för att snabba utvecklingen och så man inte får 14 olika "standarder".

Visa signatur

ASUS P8Z68-v Pro i7 2600K@4.5, 32GB RAM, RX 580, 4K Samsung u24e590, Intel SSD, Seagate SSHD, LG BH16NS55 BD/RW, MacOS Monterey, Win 10+11, Linux Mint
***gamla grejor duger***
Macbook Pro 2009, 8GB RAM, SSD, MacOS Catalina + Windows 10; Macbook Pro 2015 16GB RAM 512GB SSD Radeon Mojave

Permalänk
Avstängd

Det här låter ju som AMDs tidigare Torrenza initiativ.

Permalänk
Datavetare
Skrivet av Fluf:

Grafikkärnan kan snabbt utföra enklare mattematiska beräkningar, och då det är många kärnor blir det väldigt mycket gjort.

Riktigt bra förklaring, enda invändningen är att det ska INTE vara enklare mattematiska beräkningar för att vara riktigt effektivt. Tiden det tar att skicka in-data och ut-data mellan CPU och GPU blir endast försumbar om det är en relativt komplicerad beräkning som utförs på varje kvanta.

Om det är en enklare beräkning så kommer tiden för kommunikations-overhead dominera och det blir då snabbare att göra beräkningen direkt på CPUn. En stor fördel med APU:er jämfört med CPU+diskret GPU är att tiden det tar att kommunicera mellan dessa två komponenter är lägre i en APU, så fler problem borde effektivt gå att avlasta till GPUn i en APU.

Sedan finns en begränsning till: det är ju redan nämnt att problemet ska vara väldigt parallellsebart, gärna embarissingly parallel. Men varje oberoende del-problem som körs på samma grupp av GPU-processorer (i KTH rapporten som länkas ovan så nämns att nVidia 8800 GTX har 8 processorer per grupp) bör vara ungefär lika stora och komplicerade då ett jobb som kan köra på 1 till 8 av dessa processorer alltid tar tiden för det längsta jobbet innan man får resultatet.

Till sist får man inte glömma att alla moderna x86 (och även ARM) CPUer har s.k. SIMD (Single Instruction Multiple Data) enheter (SSE/AVX på x86, NEON på ARM) som program definitivt borde använda mer än vad som görs idag. Fördelen med dessa enheter jämfört med en GPU är att tiden för kommunikation till dessa är i praktiken noll då det är del av CPUn. Den råa beräkningsprestandan är dock inte alls lika hög som en GPU, men rätt använt så kan SSE och NEON ge en prestandaförbättring på upp till ca 4 gånger och AVX upp till 8 gånger jämfört med att använda motsvarande skalära operationer.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd

Efter att ha läst detta: http://www.amd.com/us/press-releases/Pages/amd-strengthens-se...

Som jag förstår det så är AMD ute efter TrustZone och ingenting annat. Ska bli kul att se hur detta utvecklar sig.

Permalänk
Hjälpsam
Skrivet av Yoshman:

Riktigt bra förklaring, enda invändningen är att det ska INTE vara enklare mattematiska beräkningar för att vara riktigt effektivt. Tiden det tar att skicka in-data och ut-data mellan CPU och GPU blir endast försumbar om det är en relativt komplicerad beräkning som utförs på varje kvanta.

Om det är en enklare beräkning så kommer tiden för kommunikations-overhead dominera och det blir då snabbare att göra beräkningen direkt på CPUn. En stor fördel med APU:er jämfört med CPU+diskret GPU är att tiden det tar att kommunicera mellan dessa två komponenter är lägre i en APU, så fler problem borde effektivt gå att avlasta till GPUn i en APU.

Sedan finns en begränsning till: det är ju redan nämnt att problemet ska vara väldigt parallellsebart, gärna embarissingly parallel. Men varje oberoende del-problem som körs på samma grupp av GPU-processorer (i KTH rapporten som länkas ovan så nämns att nVidia 8800 GTX har 8 processorer per grupp) bör vara ungefär lika stora och komplicerade då ett jobb som kan köra på 1 till 8 av dessa processorer alltid tar tiden för det längsta jobbet innan man får resultatet.

Till sist får man inte glömma att alla moderna x86 (och även ARM) CPUer har s.k. SIMD (Single Instruction Multiple Data) enheter (SSE/AVX på x86, NEON på ARM) som program definitivt borde använda mer än vad som görs idag. Fördelen med dessa enheter jämfört med en GPU är att tiden för kommunikation till dessa är i praktiken noll då det är del av CPUn. Den råa beräkningsprestandan är dock inte alls lika hög som en GPU, men rätt använt så kan SSE och NEON ge en prestandaförbättring på upp till ca 4 gånger och AVX upp till 8 gånger jämfört med att använda motsvarande skalära operationer.

Tack, jag sköt ganska hårt från höften, känns trevligt att man hade rimlig pejl då

Och tack för mer ingående förklaring om instruktioner och cpu/gpu latency vs APU etc.

Visa signatur

Allt jag säger/skriver här är mina egna åsikter och är inte relaterade till någon organisation eller arbetsgivare.

Jag är en Professionell Nörd - Mina unboxing och produkttester (Youtube)
Om du mot förmodan vill lyssna på mig - Galleri min 800D med 570 Phantom SLI

Permalänk
Medlem
Skrivet av Morkul:

Efter att ha läst detta: http://www.amd.com/us/press-releases/Pages/amd-strengthens-se...

Som jag förstår det så är AMD ute efter TrustZone och ingenting annat. Ska bli kul att se hur detta utvecklar sig.

Mycket så. Sen att man valt att slå på stora trumman i yrhetsartiklar är en annan femma och ett helt annat projekt i sig. Oavsett vad detta innebär så har ARM och AMD nu gjort vad Intel kunde gjort för en evighet sedan, om dom inte Intel vore så enkelspåriga.

Hoppas att nu att Intel ska göra bort sig ordentligt och släppa in de andra spelarna på fältet. Det behövs verkligen en ny era av cpu, gpu, apu, apa... vad man nu än vill kalla det. En era där det finns fler värdiga alternativ med glada kreativa spelare.