AMD fortsatt akterseglade av Nvidia vid videoredigering

Permalänk
Medlem
Skrivet av yrfhar:

Intressant att dollar för dollar, har Puget Systems utvärderar att NVIDIA-kort för närvarande ger bättre prestanda i Resolve Studio (pris ca 3 200 kr). De har också funnit att NVIDIA-kort tenderar att vara något mer tillförlitliga (både ur hårdvara och drivrutinssynpunkt).

Jag har använt det ganska mycket och visste inte ens om att det finns två versioner. Är det värt att lägga pengar på Studio-versionen? Jag vill bara ha en så snabb render-speed som möjligt av väldigt enkla effekter.

Permalänk
Medlem
Skrivet av dblade:

Jag har använt det ganska mycket och visste inte ens om att det finns två versioner. Är det värt att lägga pengar på Studio-versionen? Jag vill bara ha en så snabb render-speed som möjligt av väldigt enkla effekter.

Studio-versionen ger tillgång till alla effekter, GPU-accelerering av effekter (inte enbart slutrendering som i gratisversionen) och möjlighet att arbeta i högre upplösningar (gratisversionen är begränsad till lägre upplösningar - 4K funkar men då får man en stor Resolve-logga över hela bilden...), så behöver man funktionerna får man mycket för lite pengar.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem

Hajjar inte vad folk argumenterar om när det kommer till grön vs röd..
Kollar man på videos på utube så vinner ju 6800xt mot 3080 i flertal spel, även 6800 mot 3070

Sen har Nvidia bättre RT samt dlss som amd inte fullbordat ännu.. men även om man vill säga att Nvidia är bättre, så är det inte by far när det kommer till ren spel prestanda. Man blir nöjd med vilket som skulle jag vilja tro
Vissa här får det o låta som att amd verkligen är ljusår efter

Permalänk
Medlem
Skrivet av cyklonen:

Studio-versionen ger tillgång till alla effekter, GPU-accelerering av effekter (inte enbart slutrendering som i gratisversionen) och möjlighet att arbeta i högre upplösningar (gratisversionen är begränsad till lägre upplösningar - 4K funkar men då får man en stor Resolve-logga över hela bilden...), så behöver man funktionerna får man mycket för lite pengar.

Brukar alltid jobba i 4K men jag har aldrig sett resolve-loggan?

Permalänk
Medlem
Skrivet av dblade:

Brukar alltid jobba i 4K men jag har aldrig sett resolve-loggan?

Jag vet inte vad för version du har. Kollade nu, och det har varit så sen v.15 åtminstone.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem

Detta är väl ett bevis på att Nvidia har varit dominanta under lång tid och att mjukvaror speglar det. Det blir svårt att vända på hela marknaden så att optimeringar görs på AMD-hårdvara om väldigt få använder nämnda hårdvara. Precis som med Ryzen på CPU-sidan så krävs det många generationer av konkurrenskraftiga GPU:er och med det större marknadsandel för att Adobe, Blackmagic Design och andra utvecklare ska bry sig om att spendera utvecklingsresurser på att optimera för RDNA.

Permalänk
Medlem
Skrivet av Novdid:

Detta är väl ett bevis på att Nvidia har varit dominanta under lång tid och att mjukvaror speglar det. Det blir svårt att vända på hela marknaden så att optimeringar görs på AMD-hårdvara om väldigt få använder nämnda hårdvara. Precis som med Ryzen på CPU-sidan så krävs det många generationer av konkurrenskraftiga GPU:er och med det större marknadsandel för att Adobe, Blackmagic Design och andra utvecklare ska bry sig om att spendera utvecklingsresurser på att optimera för RDNA.

@Yoshman har väl nämnt nåt om att CUDA (hårdvarumässigt) är mer flexibelt eller smartare för GPGPU jämfört med AMD:s lösning. Jag kanske minns fel eller har tolkat fel?

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem

Fanboism är farligt ibland, tycker det är kul att AMD verkar vara på rätt spår igen, även om de inte gjorde lika mycket spår i snön med RDNA2 som med Ryzen.

Men kul att se att AMD är på rätt spår, ska bli spännande att se vad nästa steg för AMD och deras grafikkort kan komma att bli, och hur stort nästa steg är.

Permalänk
Medlem
Skrivet av cyklonen:

@Yoshman har väl nämnt nåt om att CUDA (hårdvarumässigt) är mer flexibelt eller smartare för GPGPU jämfört med AMD:s lösning. Jag kanske minns fel eller har tolkat fel?

Han har säkert rätt. Det jag pratar om är mer övergripande. Att optimera för CUDA är givet då nästan alla användare har hårdvaran för det. Att optimera för AMD (är inte GPGPU mer eller mindre dött?) är inte självklart.

Permalänk
Medlem
Skrivet av cyklonen:

Jag vet inte vad för version du har. Kollade nu, och det har varit så sen v.15 åtminstone.

Jag kör oftast på senaste versionen. Just nu är det version 17 beta.. Kanske är det om man använder några specifika filter/effekter? Jag har både input och output till 2160p.

Permalänk
Medlem
Skrivet av dblade:

Jag kör oftast på senaste versionen. Just nu är det version 17 beta.. Kanske är det om man använder några specifika filter/effekter? Jag har både input och output till 2160p.

Märkligt. Men jag har hört från andra också att de inte ser loggan i högre upplösningar. Trots att det står i Resolves dokumentation att redigering och export av material över 2K (gissar att de menar 1440) får en logga i gratisversionen. Och så var det även för mig. Jag använde ingen egentlig effekt den gången, förutom enkla fade-övergångar i klippen.

Kanske är det en bugg som gör att det inte alltid inträffar. Men formellt är det ändå så att man behöver Studio-versionen för att kunna arbeta med 4K-material och över.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Moderator
Moderator

Bra framsteg relativt sett ändå även om de inte kommit ikapp.

Kan inte undvika att tänka på deras oljedränkta akvarium-PC så fort jag läser Puget Systems, test av vilket nytt kort som gör sig bäst dränkt i mineralolja hade varit något.
Synd att de inte håller på med det längre pga. patentproblem.

Visa signatur

*-<|:C-<-<

Nytt namn, samma bismak.

Permalänk
Medlem
Skrivet av dblade:

Jag har använt det ganska mycket och visste inte ens om att det finns två versioner. Är det värt att lägga pengar på Studio-versionen? Jag vill bara ha en så snabb render-speed som möjligt av väldigt enkla effekter.

Har du HEC tillägget i Windows (koster 10 kr) så får du 4K utan att ha Studio. Men Studio renderar enormt mycket snabbare för då man kan välja Nvidia istället för Native och även rendera i Quicktime 265 vilket gör filmerna mycket mindre i filstorlek. Lite synd bara att Davinci Resolve Studio inte går att köpa online med ett klick utan man får beställa en pappkartong. Finns https://www.toolfarm.com/ och är inte billigare och försök inte köpa utan EU-moms för det stoppar de. Men vet inte om de går att lita på att man får en legitim nyckel. Nyckel kan användas på två datorer (usb-dongle kan man flytta hur som helst) och måste avaktiveras om man vill släppa ena datorn. Undra hur det räknas vis tex HD-crash och man inte har en chans att avaktivera?

Visa signatur

[AMD Ryzen 9 3900X] [ASUS GeForce RTX 2080 Ti] [LG OLED 55 C9 som skärm] [Samsung HW-Q96R till ljudet]

Permalänk
Medlem

Videoredigering i dator är ingen enkel materia, det är så mycket mer att ta hänsyn till än tiden det tar att exportera till valt mediaformat. Jag använder olika maskiner med olika konfigurationer för olika projekt. Har miljöer baserade på både Intel och Amd cpu:er, samt både Nvidia och Amd gpu:er. Mjukvaror som jag använder är DaVinci Resolve, Magix Vegas, Corel och Pinnacle Videostudio samt min favorit Cyberlink Powerstudio. För det projekt jag håller på med just nu så valde jag just sistnämnda, och jag testade en 10 minuter lång källfil (AVI) i två datorer. Den ena datorn med r7-2700 (lätt överklockad) samt GTX1070TI (var det tänkta valet) och den andra datorn med r7-3700X (ej överklockad) samt (Ref.) RXVEGA64 (mer eller mindre bara för att jämföra med något, har inte visat så lysande resultat tidigare), båda dessutom försedda med 32 GB RAM. DÖM OM MIN FÖRVÅNING, när datorn med V64 landade på 1m17s mot 1m54s för datorn med GTX! Så jag vill med detta lilla exempel påvisa att rubriken för artikeln är väldigt missvisande, den borde absolut omformuleras.
PS: Jag har kraftigare gpu:er i andra datorer, avsedda för andra projekt.

Edit: Studera de här testerna: https://techgage.com/article/amd-radeon-pro-w5500-review/3/, de ger ju en insikt i att mycket handlar om vad verktyget (mjukvaran) ör optimerad för.

Tillägg
Permalänk
Medlem
Skrivet av yrfhar:

Nyckel kan användas på två datorer (usb-dongle kan man flytta hur som helst) och måste avaktiveras om man vill släppa ena datorn. Undra hur det räknas vis tex HD-crash och man inte har en chans att avaktivera?

Det stämmer tack och lov inte. Den tidigaste aktiveringen avaktiveras automatiskt när man gör en tredje aktivering på annan dator. Ingen risk för att en aktivering blir "låst" till en död dator alltså.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av Jagers:

vadå "amd må prestera väl i spel" ? vilket spel, ett spel på hela marknaden som dem NÄSTAN slår nvidia i?

Att prestera väl är inte samma som att prestera bäst förstår väl även du? Väl i det här fallet betyder helt enkelt "bra".

Permalänk
Medlem

Tycker ändå det låter lite så här:

-Nvidia släpper 3095:Ti, skitbra allt är bra bra bra, ja skitbra fan. Räkna med att det blir vårt att få tag på, men den som väntar på ngt gott...

-AMD släpper 6995XT nja men kanske ok då, är den så bra på RT egentligen inte för att vi bryr oss men ändå. AMD lär inte skita ur sig ett kortjävel under 20-talet FU loser!

Visa signatur

Modermodem: Asus ROG Strix X470-F
Grafikkort: XFX Speedster MERC 319 AMD Radeon™ RX 6800 BLACK
Processor: AMD 2600X
Minne: 48 GB

Permalänk
Datavetare
Skrivet av _Merc_:

Navi (RNDA2) är en spel arkitektur inte ett renderings kort. Bättre och vänta o se vad deras CDNA kort presterar.

CDNA är primärt designad för server/datacenter och en implikation av det är att APIet som AMD primärt pushar för dessa kort, HIP, faktiskt inte ens finns för Windows (AMD har sagt att det kanske kommer i framtiden).

Nu finns i.o.f.s Davinci Resolve även till Linux och där finns AMDs ROMm som implementerar både HIP och OpenCL. Men CDNA-korten är i praktiken inget alternativ för normalanvändaren.

Skrivet av cyklonen:

@Yoshman har väl nämnt nåt om att CUDA (hårdvarumässigt) är mer flexibelt eller smartare för GPGPU jämfört med AMD:s lösning. Jag kanske minns fel eller har tolkat fel?

CUDA refererar till två olika saker. Vet inte riktigt vad de flesta associerar med namnet CUDA, för mig är det primärt namnet på Nvidias API och kringliggande ramverk för GPGPU-programmering. D.v.s. det är programvara, inte HW.

Vad som är möjligt att göra i CUDA dikteras naturligtvis en hel del av vad underliggande HW är kapabel till. Antar att du sett någon av kommenterar jag gjort runt att Nvidia från och med Volta fått stöd på HW-nivå som möjliggör programkonstruktioner som tidigare bara fungerande på CPU.

Från och med Volta är också Nvidias HW bättre än andra GPUer på att hantera GPGPU-program där flödena i olika GPU-trådar divergerar från varandra. Man ska fortfarande så långt som möjligt skriva sina GPGPU-program så flödena inte divergerar då divergens minskar effektiviteten, men är möjligt att göra saker som t.ex. traditionella mutex:es och semaforer sedan Volta!

Skrivet av Novdid:

Han har säkert rätt. Det jag pratar om är mer övergripande. Att optimera för CUDA är givet då nästan alla användare har hårdvaran för det. Att optimera för AMD (är inte GPGPU mer eller mindre dött?) är inte självklart.

När du skriver "optimera för CUDA", menar du Nvidias HW eller menar du API:et/ramverket CUDA?

Det Nvidia lyckats så väl med är det senare och tyvärr är det allt mer som enbart stödjer CUDA, vilket är ett rejält problem då GPGPU är allt annat än dött, det har tvärtom tagit rejäl fart senaste åren. Det är ett problem då CUDA (API:et) bara fungerar på Nvidias kort.

Att optimera för CUDA är förutom att det är Nvidia specifikt inget direkt problem. Nvidia hittade bara rätt recept för hur man bör presentera GPU HW för program, är rent praktiskt inget problem att stödja CUDA på andra GPUer. Faktum är att AMDs HIP som jag nämner ovan är i praktiken en direkt ripoff av CUDA, det är så lika att det finns verktyg som översätter CUDA-kod till motsvarande HIP. Allt som skrivs direkt mot HIP kan både kompileras för CGN och CDNA samt för Nvidias GPUer, om man lyfter på huven ser man att man i praktiken bara översätter allt till motsvarande CUDA-anrop och kompilerar med Nvidias verktyg.

Stora problemet med HIP är att det är en CUDA-ripoff, man kommer alltid ligga efter Nvidia i features, samt det kanske ännu större problemet är att HIP är AMD specifikt, för tillfället fungerar det officiellt bara på Vega samt CDNA CPUerna. I praktiken fungerar det också på Polaris, AMD har tillslut satt ett officiellt datum för RDNA-stöd: någon gång under 2021. Tyvärr saknas stöd för HIP på APUer, samt det är för närvarande Linux-only.

OpenCL är i praktien dött. Det är hjärndött komplicerat att använda OpenCL, brutalt mycket boilerplate jämfört med CUDA. Prestandamässigt kan OpenCL absolut konkurrera med CUDA, är inte där problemet ligger, utan är just för komplicerat att använda jämfört med alternativen.

Vet inte varför AMD är så kallsinnigt inställda till Khornos SyCL, det är vad jag skulle kalla för "OpenCL done right". SyCL stöds numera av Intel (via OneAPI som stödjer Intel GPUs, x86 CPUs via SSE,AVX/AVX-512, samt Nvidias GPUs) och Arm Mali, Qualcomm Adreono, Xilinx FPGAs (flera alternativ, ComputeCpp är nog en av de bättre alternativen).

SyCL kan använda OpenCL som ett abstraktionslager mot HW, det är så OneAPI stödjer Intels GPUer samt hur ComputeCpp stödjer Arm-tillverkarna. Men det är inget krav, använder man OneAPI på Nvidias GPUer används CUDA som abstraktionslager mot HW och finns ett öppet projekt (som AMD än så länge inte alls lagt resurser på) som implementerar SyCL med HIP som abstraktionslager.

AMD är på väg att göra sig mer eller mindre irrelevanta för GPGPU då de saknar något vettigt sätt att använda deras GPU för GPGPU, i alla fall utanför datacenter. Nvidia är dominanterna då de skapade CUDA och sedan visade världen att man kan lita på att de kommer fortsätta satsa helhjärtat på tekniken, ovanpå det var CUDA också det klart bästa/enklaste sättet att jobba med GPGPU.

Nu finns lite konkurrenter. Apple (som var de som skapade OpenCL, var stor förlust för projektet när Apple hoppade av) har sitt Metal API där GPGPU-delen kallas Metal computer. Apple lär ha det klart bredaste GPGPU-stödet (rent generellt bredaste xPU stödet) för desktop just nu, men Metal är MacOS/iOS specifikt. För "resten" av världens finns CUDA samt allt mer pekar på att SyCL faktiskt kommer bli en relevant utmanare.

Liten ljusning för AMD är att de antagligen kommer få SyCL "gratis", man jobbar på en implementation som använder Vulkan compute som abstraktionslager, detta då man med detta kommer får SyCL stöd på alla GPUer som har en fungerande Vulkan implementation, vilket i praktiken är alla moderna GPUer!

SyCL har lika lite boilerplate som CUDA, men det har fördelen att SyCL är helt ISO C++17 (och snart C++20) kompatibelt. Något som gör det ännu enklare än CUDA att lägga in GPGPU stöd i sina applikationer. Använder man OneAPI kan man enkelt (till och med i ett körande program) växla mellan att köra SyCL delen på CPU eller GPU, är betydligt enklare att debugga saker när allt kör på CPU så där finns ett värde.

Den andra stora fördelen med hur OneAPI använder SyCL (OneAPI är mer än SyCL, är specifikt GPGPU delen i OneAPI som använder SyCL) är att man inte behöver skriva två versioner, vilket man måste med CUDA om man inte tänker kräva att alla har en Nvidia GPU, är att system som saknar en OneAPI kompatibel GPU fungerar ändå då programmet i det läget körs på CPU-delen och använder SSE/AVX/AVX-512 (exakt vad som används beror på vad systemet stödjer)!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

CUDA refererar till två olika saker. Vet inte riktigt vad de flesta associerar med namnet CUDA, för mig är det primärt namnet på Nvidias API och kringliggande ramverk för GPGPU-programmering. D.v.s. det är programvara, inte HW.

Vad som är möjligt att göra i CUDA dikteras naturligtvis en hel del av vad underliggande HW är kapabel till. Antar att du sett någon av kommenterar jag gjort runt att Nvidia från och med Volta fått stöd på HW-nivå som möjliggör en komplett implementationer av ISO C++, fanns vissa saker som inte var möjligt att göra med GPGPU innan p.g.a. begränsningar i HW-design.

Från och med Volta är också Nvidias HW bättre än andra GPUer på att hantera GPGPU-program där flödena i olika GPU-trådar divergerar från varandra. Man ska fortfarande så långt som möjligt skriva sina GPGPU-program så flödena inte divergerar då divergens minskar effektiviteten, men är möjligt att göra saker som t.ex. traditionella mutex:es och semaforer sedan Volta!

Jo, men CUDA är väl strikt anpassat till den (Nvidia-)hårdvara den är byggd för? Så kan man egentligen separera det?

Jag tror att det jag menade var det du tar upp i sista stycket.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Datavetare
Skrivet av cyklonen:

Jo, men CUDA är väl strikt anpassat till den (Nvidia-)hårdvara den är byggd för? Så kan man egentligen separera det?

Jag tror att det jag menade var det du tar upp i sista stycket.

Nvidia designar självklart CUDA för att utnyttja deras GPUer fullt ut. Men vad jag last om prestandadelen av HIP så är det minst lika effektivt som att köra OpenCL, så trots att HIP egentligen är CUDA-APIet-för-några-versioner-sedan-med-lite-andra-funktionsnamn så passar det riktigt bra även för CGN/CDNA.

Egentligen inte så förvånande, på det stora hela är likheterna långt större än skillnaderna kring hur man bäst utnyttja en GPU för GPGPU. Därför finns heller ingen anledning att ett "generellt" API som OpenCL och SyCL skulle bli långsammare, faktum är att de benchmarks jag sett med OneAPI (som bygger på SyCL) på Nvidias GPUer uppvisar i det närmaste identisk prestanda som motsvarande CUDA variant på samma HW.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Nvidia designar självklart CUDA för att utnyttja deras GPUer fullt ut. Men vad jag last om prestandadelen av HIP så är det minst lika effektivt som att köra OpenCL, så trots att HIP egentligen är CUDA-APIet-för-några-versioner-sedan-med-lite-andra-funktionsnamn så passar det riktigt bra även för CGN/CDNA.

Egentligen inte så förvånande, på det stora hela är likheterna långt större än skillnaderna kring hur man bäst utnyttja en GPU för GPGPU. Därför finns heller ingen anledning att ett "generellt" API som OpenCL och SyCL skulle bli långsammare, faktum är att de benchmarks jag sett med OneAPI (som bygger på SyCL) på Nvidias GPUer uppvisar i det närmaste identisk prestanda som motsvarande CUDA variant på samma HW.

Aha! Det jag hade hakat upp mig på var nåt du skrev vid ett annat tillfälle om en grundläggande skillnad i hur Nvidia och AMD har konstruerat beräkningsenheterna i grafikkretsarna, vilket gjorde Nvidias grejer mer flexibla och bättre för mer generell beräkning än ren grafik.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Datavetare
Skrivet av cyklonen:

Aha! Det jag hade hakat upp mig på var nåt du skrev vid ett annat tillfälle om en grundläggande skillnad i hur Nvidia och AMD har konstruerat beräkningsenheterna i grafikkretsarna, vilket gjorde Nvidias grejer mer flexibla och bättre för mer generell beräkning än ren grafik.

Det finns en fundamental skillnad. Nvidia implementerar något som kallas SIMT medan i princip alla andra implementerar någon form av SIMD.

Innan Volta var inte denna skillnad superviktig, självklart var vissa saker mer effektiv på Nvidias GPUer medan annat var mer effektivt på AMDs. Men så är det ju med all HW.

Det som rent konkret skiljer SIMT från SIMD är hur HW-register (register = den absolut snabbaste typen av "minne" i en GPU/CPU) är utformade.

I SIMT har varje CPU-tråd ett eget register, d.v.s. det är likt "normal" CPU-kod skalära register, register som håller ett värde.

I SIMD (oavsett om det handlar om CPU eller GPU) så används "vektorregister", d.v.s. flera GPU-trådar delar samma register, i AMDs GPUer så delar alla trådar som tillhör samma "wave" (64 trådar i GCN och 32 trådar i RDNA) ett register men de har "sin" data på en offset motsvarande deras tråd-ID inom denna "wave".

Vad som hände i Volta var att man även lade till individuell programräknare för varje tråd, innan delade alla trådar i en "warp" (32 trådar per warp, Nvidias warp är rätt mycket samma koncept som AMDs wave) en enda programräknare (vilket är hur i princip alla andra GPUer fungerar).

"SI" säger "single instruction", så varje cykel kan alla trådar i en warp/wave bara köra en specifik instruktion. Om trådarna har divergerat löser man det med ett mask-register, de trådar som logiskt inte kör den instruktion man nu kommit till hanterar den som en NOP (No OPeration -> man gör ingenting som påverkar lokala tillståndet).

Nästa allt kan hanteras på detta sätt, men finns vissa former av synkronisering inom en wave/warp som kan dead-lock:a (A väntar på att B ska göra något samtidigt som B väntar på att A ska göra något, då de väntar på varandra kan de aldrig hända -> dead-lock). Går nästa alltid att koda runt sådana fall, men kan bli väldigt ineffektiv/komplicerat, från och med Volta och tack vare SIMT kan man nu även göra sådant på Nvidias GPUer.

Så Nvidias GPUer är mer flexibla, de är mer lik en "vanlig" CPU än andra GPUer. Det betyder inte nödvändigtvis att allt går snabbare där, många gånger behövs inte denna flexibilitet och då kan den i stället kosta prestanda. Men Nvidias GPUer kan användas till fler fall.

Även här finns ju en fördel med hur OneAPI fungerar, vissa saker kommer kunna dra nytta av SyCL-modellen men slutresultatet blir mer effektivt att köra på CPU. Är trivialt att hantera detta, one-liner att välja mellan att köra på GPU, CPU, FPGA eller vad man nu vill köra på.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Det finns en fundamental skillnad. Nvidia implementerar något som kallas SIMT medan i princip alla andra implementerar någon form av SIMD.

Innan Volta var inte denna skillnad superviktig, självklart var vissa saker mer effektiv på Nvidias GPUer medan annat var mer effektivt på AMDs. Men så är det ju med all HW.

Det som rent konkret skiljer SIMT från SIMD är hur HW-register (register = den absolut snabbaste typen av "minne" i en GPU/CPU) är utformade.

I SIMT har varje CPU-tråd ett eget register, d.v.s. det är likt "normal" CPU-kod skalära register, register som håller ett värde.

I SIMD (oavsett om det handlar om CPU eller GPU) så används "vektorregister", d.v.s. flera GPU-trådar delar samma register, i AMDs GPUer så delar alla trådar som tillhör samma "wave" (64 trådar i GCN och 32 trådar i RDNA) ett register men de har "sin" data på en offset motsvarande deras tråd-ID inom denna "wave".

Vad som hände i Volta var att man även lade till individuell programräknare för varje tråd, innan delade alla trådar i en "warp" (32 trådar per warp, Nvidias warp är rätt mycket samma koncept som AMDs wave) en enda programräknare (vilket är hur i princip alla andra GPUer fungerar).

"SI" säger "single instruction", så varje cykel kan alla trådar i en warp/wave bara köra en specifik instruktion. Om trådarna har divergerat löser man det med ett mask-register, de trådar som logiskt inte kör den instruktion man nu kommit till hanterar den som en NOP (No OPeration -> man gör ingenting som påverkar lokala tillståndet).

Nästa allt kan hanteras på detta sätt, men finns vissa former av synkronisering inom en wave/warp som kan dead-lock:a (A väntar på att B ska göra något samtidigt som B väntar på att A ska göra något, då de väntar på varandra kan de aldrig hända -> dead-lock). Går nästa alltid att koda runt sådana fall, men kan bli väldigt ineffektiv/komplicerat, från och med Volta och tack vare SIMT kan man nu även göra sådant på Nvidias GPUer.

Så Nvidias GPUer är mer flexibla, de är mer lik en "vanlig" CPU än andra GPUer. Det betyder inte nödvändigtvis att allt går snabbare där, många gånger behövs inte denna flexibilitet och då kan den i stället kosta prestanda. Men Nvidias GPUer kan användas till fler fall.

Även här finns ju en fördel med hur OneAPI fungerar, vissa saker kommer kunna dra nytta av SyCL-modellen men slutresultatet blir mer effektivt att köra på CPU, är trivialt att fixa det (one-liner att välja mellan att köra på GPU, CPU, FPGA eller vad man nu vill köra på).

Ja, det var det där jag menade.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Bildexpert
Skrivet av Pirum:

Använder proffs hårdvarukodning för slutliga filmen numera?

Beror väl på vad man menar med "proffs", och det är stor skillnad på vad för codec man siktar på. Många aktörer jag känner till använder hårdvarukodning eftersom det är det enda sättet för dem att hinna med sina scheman, vilket inte är så konstigt om man t.ex. är YouTuber och släpper en 15-20 min lång video om dagen i 4K.

Kan man hårdvarukoda till ProRes är det match made in heaven.

Permalänk
Medlem
Skrivet av ajp_anton:

Lugna ner dig. "Spel" är plural och då menas såklart ett genomsnitt. Titta på recensionens prestandaindex och berätta varför den inte skulle prestera väl i spel.

Skrivet av adzer:

Finns allt titlar där amd presterar bättre än nvidia även om nvida(om det är 3090 man går efter) över lag ligger något före amd.
Man kan dock inte säga att amd inte presterar väl i spel. För amd presterar mycket väl i spel trots att nvidia är något snabbare.

Se nedan ifrån swecs tester av 6900xt:

https://cdn.sweclockers.com/artikel/diagram/22471?key=5c7350c...

https://cdn.sweclockers.com/artikel/diagram/22463?key=7d910e5...

https://cdn.sweclockers.com/artikel/diagram/22433?key=72bba62...

Skrivet av kelthar:

Jag förstår inte hur du kan jaga upp det över den texten. De menar att de "presterar väl i spel". Annars hade de skrivit att de presterar bättre än nvidia i spel och de menat att de presterar bättre än nvidia i spel.

Skrivet av JesperDa:

De presterar väl i spel, det står inte att AMD presterar bättre än Nvidia i spel.

Skönt att du länkade 1080p tester när i princip vad som helst kan köra 1080p idag, allt över 1080p och allt som är raytracing så ligger amd mycket längre bakom nvidia än vad dem borde, jag personligen är inte ett dugg imponerad över amd's 6000 serie speciellt inte med tanke på priserna, och deras shitty drivers

Permalänk
Medlem
Skrivet av NutCracker:

Videoredigering i dator är ingen enkel materia, det är så mycket mer att ta hänsyn till än tiden det tar att exportera till valt mediaformat. Jag använder olika maskiner med olika konfigurationer för olika projekt. Har miljöer baserade på både Intel och Amd cpu:er, samt både Nvidia och Amd gpu:er. Mjukvaror som jag använder är DaVinci Resolve, Magix Vegas, Corel och Pinnacle Videostudio samt min favorit Cyberlink Powerstudio. För det projekt jag håller på med just nu så valde jag just sistnämnda, och jag testade en 10 minuter lång källfil (AVI) i två datorer. Den ena datorn med r7-2700 (lätt överklockad) samt GTX1070TI (var det tänkta valet) och den andra datorn med r7-3700X (ej överklockad) samt (Ref.) RXVEGA64 (mer eller mindre bara för att jämföra med något, har inte visat så lysande resultat tidigare), båda dessutom försedda med 32 GB RAM. DÖM OM MIN FÖRVÅNING, när datorn med V64 landade på 1m17s mot 1m54s för datorn med GTX! Så jag vill med detta lilla exempel påvisa att rubriken för artikeln är väldigt missvisande, den borde absolut omformuleras.
PS: Jag har kraftigare gpu:er i andra datorer, avsedda för andra projekt.

Edit: Studera de här testerna: https://techgage.com/article/amd-radeon-pro-w5500-review/3/, de ger ju en insikt i att mycket handlar om vad verktyget (mjukvaran) ör optimerad för.

1. Artikeln handlar främst om RDNA2 mot Ampere, inte GCN mot Pascal.
2. Du gör ett test med en rätt stor variabel, olika CPU:er... Är det något som använder AVX i ditt test kan 3700X vara rejält mycket snabbare.
3. Självklart handlar det även om mjukvara, det nämner även nyheten. Är ju mindre intressant för använderen om AMD har 2x snabbare hårdvara i teorin, om nvidia är snabbare i praktiken. Eller om t ex cuda är det enda som stöds.

Som alltid när det kommer till dessa saker så ska man gå efter det som funkar bäst för det man ska använda det för, och det kan absolut vara AMD hårdvara! Men det ändrar inte det faktum om att generellt så är Nvidia dominanta inom detta område. Borträknat FCP så är det Premiere och resolve som är giganterna.

Permalänk
Medlem
Skrivet av sKRUVARN:

1. Artikeln handlar främst om RDNA2 mot Ampere, inte GCN mot Pascal.
2. Du gör ett test med en rätt stor variabel, olika CPU:er... Är det något som använder AVX i ditt test kan 3700X vara rejält mycket snabbare.
3. Självklart handlar det även om mjukvara, det nämner även nyheten. Är ju mindre intressant för använderen om AMD har 2x snabbare hårdvara i teorin, om nvidia är snabbare i praktiken. Eller om t ex cuda är det enda som stöds.

Som alltid när det kommer till dessa saker så ska man gå efter det som funkar bäst för det man ska använda det för, och det kan absolut vara AMD hårdvara! Men det ändrar inte det faktum om att generellt så är Nvidia dominanta inom detta område. Borträknat FCP så är det Premiere och resolve som är giganterna.

Jag är fullt medveten om att differensen beträffande CPU spelar roll, därför kompletterade jag med testerna i länken. Reagerar nog mest på att det uttrycktes "rejält akterseglade" - eller liknande(?), för så är det definitivt inte! Men vi kan hålla på att diskutera detta länge och ingående, men det var inte min avsikt med inlägget?

Permalänk
Medlem
Skrivet av Jagers:

vadå "amd må prestera väl i spel" ? vilket spel, ett spel på hela marknaden som dem NÄSTAN slår nvidia i?

1. Väl. Inte bäst. Observera valet av ord.

2. De ligger bakom Nvidias motsvarighet i vissa titlar. Nästan inom felmarginaler i många.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av _Merc_:

Navi (RNDA2) är en spel arkitektur inte ett renderings kort. Bättre och vänta o se vad deras CDNA kort presterar.

Exakt! RDNA2 är väl första arkitekturen på ett tag som AMD medvetet endast optimerat för spel? Tidigare arkitekturer skulle vara allround och var då lite för dåliga till just spel men ypperliga för exempelvis kryptobrytning.

Skrivet av cyklonen:

Trist för vanliga användare som vill göra mer än bara spela på datorn. AMD skjuter sig själva i foten där. ...

Du menar samma användare som för två år sedan absolut skulle ha Intel-processor för att den var marginellt bättre i spel och långt efter på allt annat?

Skrivet av heatm:

Kan någon säga en uppgift utöver spel som AMD-korten är bättre på jämfört med Nvidia? ...

RDNA2 är markant bättre än Ampere på att avskräcka kryptobrytare från köp, en viktig uppgift i dessa tider!

Permalänk
Medlem

så jävla mycket tillför inte mitt 2070 Super när jag renderar mina videos, de är CPUn som tar det mesta av renderings lasten. GPUn ligger knappt på 15% när jag renderar och CPUn 90+% load.

Visa signatur

|Workstation: AMD Ryzen 9 7900X 4.7GHz | ASRock X670E | AMD Radeon 7900 XT | 32GB DDR5 | NVMe 2.0TB | HDD 4.0TB |
|VMware rig: AMD Threadripper 2920x | ASUS PRIME X399-A | 24GB DDR4 | 10TB Storage |
|HTPC: AMD Ryzen 3 2200G 3.7 GHz | Gigabyte B450M DS3H | Radeon Vega 8 | 8GB RAM | SSD 120GB | *Test rig för div Linux distar, drivers m.m.