AMD tillkännager "Polaris" Radeon RX 480 – kostar drygt 2 000 kronor

Permalänk
Medlem

Undrar hur det blir med nmansättningen.
Många hoppas att det ska komma en XT-variant med 2560 shaders som heter RX 480X. Jag är inte säker. Enda anledningen att vi har rykten på 2560 verkar vara att folk tyckte 36CU var för udda.

Kan det vara så att nya namnschemat blir Radeon RX 480 respektive Radeon R 480 istället för R9 480X och R9 480?
Eller kanske bara 480 för cripplade modellen?

Kan alltså vara så att det vi ser här är fulla XT-varianten.

Skrivet av PalmiNio:

Rykten talar redan om en 40 CU variant på 2560SP och lite högre klock.

Skulle gissa på att det är 490.

Vega kommer nog få en helt egen linje så som Fury.

Skulle 490 hamna på 2560SP och lite mer i klock så har vi ett kort som är upe på GTX 1070 nivån. Frågan är om pris då. Känns som 299-349 räcker för AMD.

Är nog rätt säker att RX 490 är baserad på en ~4096 shaders Vega/Greenland.

Permalänk
Entusiast
Skrivet av Dallebull:

Underbara människor ni är som inte insett att Dx12 bör lösa alla Skalningsproblem och Stutterproblem Dx11 har med Multigpulösningar, jag har då inte haft några större problem med CFX i Dx11, men då folk hade problem med SLI i Dx11 måste CFX automatiskt fungera lika kasst i Dx12.. För det är relevant...?

Må så vara men problemet är bara att väldigt få spel använder sig av DirectX 12 och flera nuvarande spel kan mycket väl komma att aldrig göra det heller så prestanda i DirectX 11 kommer vara relevant ett bra tag framöver.

Men om nu DirectX 12 slår igenom stort hyfsat snart så vore det ju riktigt trevligt eftersom man kan para ihop grafikkort från både AMD och Nvidia hur man vill med riktigt bra skalning genom Explicit Multiadapter.
Då är SLI/CF förlegat.

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Inaktiv
Skrivet av Uzanar:

Må så vara men problemet är bara att väldigt få spel använder sig av DirectX 12 och flera nuvarande spel kan mycket väl komma att aldrig göra det heller så prestanda i DirectX 11 kommer vara relevant ett bra tag framöver.

Men om nu DirectX 12 slår igenom stort hyfsat snart så vore det ju riktigt trevligt eftersom man kan para ihop grafikkort från både AMD och Nvidia hur man vill med riktigt bra skalning genom Explicit Multiadapter.
Då är SLI/CF förlegat.

Med tanke att de siktar på VR är CF/SLI ett trivialt problem då det verkligen handlar om två helt olika strömmar. Sedan får vi hoppas att Vulkan slår igenom och inte inlåsta skiten12.

Permalänk
Medlem

Var är 490 och 490X??? Blir de Vega eller vad är det frågan om?

Visa signatur

AMD 5800X ▪ MSI B550M Mortar ▪ G.Skill 32GB 3600MHz CL16 ▪ Palit 4070 Ti ▪ 1TB SSD 970 Evo+ ▪ Dark Power 13 1000W ▪ FD Define Mini C ▪ Aorus AD27QD + LG 27GL850

Permalänk
Hjälpsam
Skrivet av enbom:

Var är 490 och 490X??? Blir de Vega eller vad är det frågan om?

Kommer tidigast till hösten, ja det är dessa om blir Vega.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

@Aleshi

Är ganska säker på att det inte finns någon 400-serien GPU:er utan serien heter RX när det gäller alla kort i den nya generationen. Nog bör det kunna göras en något snabbare Polaris 10-krets än denna, GDDR5X måste in någon gång och det kan finnas utrymme för högre klockfrekvenser utöver att det möjligen finns en full-krets.

RX-serien är som sagt vad AMD själva kallar de,

http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID...
http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID...

Permalänk
Medlem
Skrivet av Ratatosk:

Kommer tidigast till hösten, ja det är dessa om blir Vega.

Jag trodde Vega skulle ersätta Fury-serien? Men de kanske lägger ner Fury?

Visa signatur

AMD 5800X ▪ MSI B550M Mortar ▪ G.Skill 32GB 3600MHz CL16 ▪ Palit 4070 Ti ▪ 1TB SSD 970 Evo+ ▪ Dark Power 13 1000W ▪ FD Define Mini C ▪ Aorus AD27QD + LG 27GL850

Permalänk
Inaktiv
Skrivet av ipac:

Känns som det kvittar hur sådana här presentationer görs. Finns alltid nån som inte begriper vad som sägs och gör goddag yxskaft av det hela.

Instämmer. De som vill hitta fel, av en eller annan anledning, kommer också hitta dessa. Om det såväl är småsaker som faktiskt större saker som faktiskt är värda att anmärka och kritisera. Väldigt mycket trams i denna tråd i mitt tycke, speciellt med jämförelserna. Dumt att riskera att dra upp diskussionen i början av tråden igen då tråden faktiskt har gått vidare i diskussionen något men att det klankas ner på att man visar testresultat med ett DirectX12-spel är något av det mest idiotiska jag sett i forumet i år. Med tanke på att det är ett av två nya API'er som kommer användas i många spel framöver så är det ett av de mest relevanta testerna man kan göra.

Självklart finns det de som ogillar AoS eftersom det är en titel AMD (men även Nvidia) arbetat ihop med men vad är alternativet. Visa testresultat i DirectX 7? Resultat i hårt Nvidia-optimerade titlar? Förväntar mig lite mer av vad som rimligtvis bör vara entusiaster på detta forum.

Dock har de ju rätt i att det var en konstig uppvisning med CF men förklaringen till varför kommer nog kanske snart nog. Multi-Adapter kommer förändra hur multi-GPU lösningar fungerar vilket förhoppningsvis gör det till en intressantare lösning för många. Själv har jag kört SLI tidigare (GTX 260) och skyr dessa lösningar från bägge tillverkare sedan dess (även om jag var sugen att prova igen med både GTX 670 och nu senare R9 290). Om allt fungerar som det ska (och jag kör mATX eller större) så kommer jag nog faktiskt starkt överväga en sådan lösning vid nästa uppgradering.

Någon AFR-baserad lösning kommer jag inte ta i med tång ens. Bristerna är för många för att göra sådanna lösningar värda att krångla med såvida man inte har väldigt speciella behov i mitt tycke.

Skrivet av Aleshi:

Undrar hur det blir med nmansättningen.
Många hoppas att det ska komma en XT-variant med 2560 shaders som heter RX 480X. Jag är inte säker. Enda anledningen att vi har rykten på 2560 verkar vara att folk tyckte 36CU var för udda.

Kan det vara så att nya namnschemat blir Radeon RX 480 respektive Radeon R 480 istället för R9 480X och R9 480?
Eller kanske bara 480 för cripplade modellen?

Kan alltså vara så att det vi ser här är fulla XT-varianten.
Är nog rätt säker att RX 490 är baserad på en ~4096 shaders Vega/Greenland.

Jag har funderat på det med sedan igår. Jag gillade inte att man stoppade dit ett X efter siffrorna i 200 och 300-serien och föredrog allmänt gamla fyrsiffriga HD-systemet. Men siffrorna började ju ta slut. Väldigt rörigt när man måste specifiera om man syfter på kortet R9 290 eller produktsegmentet R9 290.

För ATI och AMD har ju kort med X varit det högre presterande namnet. Om det så är produktnamnet den saluförs under eller kodnamn för själva GPU'n. Fiji Pro vs Fiji XT exempelvis. RX 480 är en bra bit ifrån vad som blir AMDs toppmodell och kommer entusiastsegmentet också köra RX eller RZ eller något? Men visst. Försvinner X'et i slutet av namnet så är det ändå ett steg i rätt riktning.

Hoppas även jag att man kör rubbet numrerat denna gång, såvida AMD inte producerar någon riktig monsterkrets eller halo-produkt. Att Fiji-baserade GPU'erna fick Fury har jag mest tagit som en lösning på väntan på nya tillverkningsnoder. De blev ju något försenade och inte värt att designa nya produkter på den relativt korta tid som var kvar. En bonus har ju varit att Hawaii ändå stått så pass bra mot Nvidias nyare serier att den kunde leva vidare i 300-serien.

Får hoppas det klarnar när NDA går ut för Polaris. Lite extra intressant nu när det, utifrån alla rykten, också är vad konsollerna kommer köra med. Sitter man på en Polaris-krets kan man nog klara sig riktigt bra tills konsollerna byts ut då dessa bör tjäna en hel del med optimeringen mot konsolerna.

Permalänk
Hjälpsam
Skrivet av enbom:

Jag trodde Vega skulle ersätta Fury-serien? Men de kanske lägger ner Fury?

Om det här kortet presterar nästan som Fury och kostar 2000-2500kr blir det nog ganska svårt att sälja Fury för 5000kr, så ja, de kommer nog at lägga ned Fury.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

Om det här kortet presterar nästan som Fury och kostar 2000-2500kr blir det nog ganska svårt att sälja Fury för 5000kr, så ja, de kommer nog at lägga ned Fury.

Men asså. Nya Fury menar jag ju självklart. Jag trodde Vega skulle bli Nya Fury, inte 490(X). Därför jag frågar om de lägger ner Fury-serien? Eller är det så att Vega 11 blir 490(X) medans Vega 10 blir Nya Fury?

Visa signatur

AMD 5800X ▪ MSI B550M Mortar ▪ G.Skill 32GB 3600MHz CL16 ▪ Palit 4070 Ti ▪ 1TB SSD 970 Evo+ ▪ Dark Power 13 1000W ▪ FD Define Mini C ▪ Aorus AD27QD + LG 27GL850

Permalänk
Medlem
Skrivet av anon5930:

Självklart finns det de som ogillar AoS eftersom det är en titel AMD (men även Nvidia) arbetat ihop med men vad är alternativet. Visa testresultat i DirectX 7? Resultat i hårt Nvidia-optimerade titlar? Förväntar mig lite mer av vad som rimligtvis bör vara entusiaster på detta forum.

Varför välja mellan pest eller kolera? Eller är det så jävla illa att det inte finns något spel där båda tillverkarna presterar bra?

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk

Verkar mycket intressant!
Sen är det så kul varje gång någon konkurent lanserar något att se alla fanbois försvara eller trycka ner!

Men det blir spännande att se om det verkligen presterar så bra som det låter.
Sen vet jag inte varför man ska jämföra CF med ett kort men ser ju bra ut

Visa signatur

Idag använder jag min dator till Ingenting men den har

Ryzen 3700x b550 Gigabyte Aorus PRO, corsair 3600, b AOC 24"@144hz
Ryzen 2600x,Asus x470,Gigabyte 1080 Ti aorus
16 Gb vengeance @3000Mhz 1.37volt, Custom loop
|triple monitor|AOC24" AOC 24"@144hz, Dell Ultrasharp 24"

Permalänk
Medlem

AMD is the first gfx vendor to ship a SPIR-V extension for Vulkan. good for devs accessing GCN w/ Vulkan.
https://twitter.com/Thracks/status/735085941845417985

Vad menar dom? Ger dom utvecklarna mer tillgång till arkitekturen?
@yoshman

Permalänk
Medlem

Ingen som reagerade på att dom inte nämnde något alls om tredjepartskylare?
Tror ni dom kommer lansera som vanligt, alltså referens och så får vi andra kylare mot hösten?
Har för mig att Amd tidigare varit rätt sega på just tredjepartskylare.

Permalänk
Hjälpsam
Skrivet av enbom:

Men asså. Nya Fury menar jag ju självklart. Jag trodde Vega skulle bli Nya Fury, inte 490(X). Därför jag frågar om de lägger ner Fury-serien? Eller är det så att Vega 11 blir 490(X) medans Vega 10 blir Nya Fury?

Aha, vet inte om de släpper nytt Fury, det skulle i så fall vara vassare än 490 som baseras på Vega och släpps senare i år.
Misstänker att de tänker släppa 490 först i alla fall.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam
Skrivet av ClintBeastwood:

Varför välja mellan pest eller kolera? Eller är det så jävla illa att det inte finns något spel där båda tillverkarna presterar bra?

Det framförs ofta som att AoS bara fungerar på AMD, vilket inte är sant, det fungerar utmärkt även på Nvidia, Nvidia spöar AMD i AoS DX11 utan problem.
Att AMD tjänar mer på att gå från DX11 till DX12 är inte konstigt, Nvidias drivare är bättre optimerade än AMD:s i DX11, AMD har med andra ord mer att ta igen, Nvidia kör nästan med DX12 prestanda redan i DX11.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av ghandpivot:

Det här låter grymt. Köpte nyss ett Nvidia 3D kit till mitt nuvarande 680, någon som vet om AMD-korten stödjer nvidia-utrustningen? För här ska upgraderas

Det är kört på AMD, det kan jag beta på big time.
Lika säkert som en häst skiter vart den vill

Men seriöst menat! Varför köpte du Nvidia 3D kit ?
Alltså, jag kan förstå varför, men är det det så fet ?

Har du en skärm som stödjer 3D Vision? ( NVIDIA® 3D Vision)

För även skärmen spelar roll för att Nvidia 3D kit ska rocka på optimalt.

Visa signatur

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[HP Microserver 12TB]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz, R9 290X Foto [Nikon D7000][70-300/35 1,8/18-55 [Skärmar=24",24",24" Eyefinity]

Permalänk
Medlem
Skrivet av Tumnus:

It's the bomb!

Somebody set us up the bomb.

Permalänk
Medlem

RX 480 Polaris 10 40 CU 232 mm2 256 bit GDDR5
RX 490 Vega 11 60 CU 348 mm2 384 bit GDDR5
RX Fury Vega 10 80 CU 464 mm2 HBM2

Kanske.

edit: 384 förstås

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Ratatosk:

Det framförs ofta som att AoS bara fungerar på AMD, vilket inte är sant, det fungerar utmärkt även på Nvidia, Nvidia spöar AMD i AoS DX11 utan problem.
Att AMD tjänar mer på att gå från DX11 till DX12 är inte konstigt, Nvidias drivare är bättre optimerade än AMD:s i DX11, AMD har med andra ord mer att ta igen, Nvidia kör nästan med DX12 prestanda redan i DX11.

Okej, har inte direkt lagt på minnet hur de olika korten presterar i olika spel och speciellt inte AoS eftersom det är ett spel som inte intresserar mig det minsta. Men då är det väl inget att klaga på om AMD väljer ett test där korten presterat likvärdigt och det nu presterar ännu bättre för då är det ju en rent spel så att säga. Tack för klargörandet!

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

Vad var det för fel på det gamla namnschemat?

Permalänk
Medlem
Skrivet av Soir:

Det kan jag absolut tänka mig, men om Crossfire-configurationen låg på ungefär 50%, och var trots det snabbare än ett ensamt 1080, varför skulle AMD inte vilja visa upp hur bra ett ensamt kort presterar? Varför Crossfire om belastningen enbart är till hälften?

För att den jämförelsen av någon anledning skulle vara mindre imponerande såklart.

Skickades från m.sweclockers.com

Visa signatur

[CPU: Intel i5-750 @ 2,6 ghz][MB: Gigabyte P55A-UD3][GFX: Phantom Geforce 670 GTX OC][RAM: Corsair XMS3 1600MHz 8GB][Chassi: Fractal Design r3] [HDD: 1TB Samsung Spinpoint F3][SSD: Crucial MX100 2.5" 7mm 256GB @ SATA 2][PSU: Corsair TX650W][CPU Kylning: Akasa Venom][OS: W7 64-bit][Skärm: BENQ 2412]

Permalänk
Medlem
Skrivet av Uzanar:

Må så vara men problemet är bara att väldigt få spel använder sig av DirectX 12 och flera nuvarande spel kan mycket väl komma att aldrig göra det heller så prestanda i DirectX 11 kommer vara relevant ett bra tag framöver.

Men om nu DirectX 12 slår igenom stort hyfsat snart så vore det ju riktigt trevligt eftersom man kan para ihop grafikkort från både AMD och Nvidia hur man vill med riktigt bra skalning genom Explicit Multiadapter.
Då är SLI/CF förlegat.

Många spel var nog halvfärdiga innan DX12 kom på allvar så adoptionstakten var låg 2015, det blir bättre o bättre. Men de finns tyvärr inga bra exempel då för många av de få som finns är trasiga.
Ingen studio lär slänga något dom jobbat länge på för o kunna göra de lite mindre krävande.

Hoppas inte Nvidia lyckas Gimpa Dx12 med bara, läste att dom fått in egen kod i Dx12 så det är bara att be till gudarna att Explicit Multiadapter fortsätter fungera.

Personligen har jag hellre 2-3 GPUer som drar mindre och är lättare att kyla och dessutom 50% billigare per Tflop än om jag köper en enda GPU. Dx12 kommer, var så säker på det, och såläge det fungerar som utlovat kommer ett eller flera P10 bli riktigt bra!

Permalänk
Medlem

Lyckades hitta ett benchmark med RX480 (singelkort) i AoS
http://www.ashesofthesingularity.com/metaverse#/personas/b0db...

Kastar in ett på GTX 1080 också
http://www.ashesofthesingularity.com/metaverse#/personas/2a44...

Permalänk
Medlem

Lite udda att köra på RX framför. Tänkte först att det kanske är istället för R10 så R9 osv kommer finnas kvar men om alla polariskort kommer ha RX funkar ju inte detta...dvs om inte en annan gpu under Polaris i prestanda med annat namn är på G och dessa får R9 och nedåt då dvs.

Eller kör de som Nvidia så kort i riktigt låg klass kommer bara ha R framför eller liknande? Lite som nvidia har GT istället för GTX om jag inte missminner mig. Lite förklaring krävs iaf känner jag då bytet inte känns helt befogat eller iaf inte självklart

Så är väl alla byten iofs antar jag. Bättre att bara vänja sig vid det nya och inte spekulera i logiken då den alltid är bristfällig xD. Mer logiskt att byta nu vid generationsskifte än när de gick över till 290 från 7000 iaf. Så det var ju "smart" antar jag...

Skickades från m.sweclockers.com

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 6900XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Medlem
Skrivet av stef88:

Enligt dessa tester så skulle 2st rx 480 slå gtx 1080 på fingrarna och ändå kosta totalt flera tusenlappar mindre! Låter för bra för att va sant.

Permalänk
Medlem

@Ownage: Ja det bör dom göra. Nackdelen med 2 st Rx480 är ju alla problem som brukar komma med CF.

Permalänk
Medlem
Skrivet av Yoshman:

Jo det är konstigt och ger extremt missvisade resultat. Får själv krupp på tearing så kör alltid med vsync, har också mätt strömförbrukningen från väggen en hel del på mitt system och konstaterat att GPUn (MSI 970 Gaming i detta fall) drar väsentligt mycket mindre ström om lasten är 80-85 % i stället för 100 %. De sista procenten till 100 % är allt annan än linjära när det kommer till strömförbrukning av någon anledning.

Dagens GPU:er och CPU:er har så många saker som förändras baserat på belastning att strömförbrukning kan man knappt mäta och jämföra vid olika belastning. Skillnaden mellan 80% och 100% belastning kan ju vara 200-300MHz (plus turbo) och med att strömförbrukningen oftast stiger mer än linjärt (ökad spänning för att driva ökad frekvens).
Frågan är nog vad dina 80-85% är baserat på, jag antar du får det från någon GPU-monitorprogramvara, räknar den 80% på någon form av NOOP-användning eller på kretsens beräkningspotential vid max turbofrekvens eller kanske helt annat.
Är det baserat på något idle-värde så kör antagligen kretsen i någon basfrekvens då det inte finns nytta av att processa idle-loops snabbare, vilket gör att 80% belastning vid basfrekvens igentligen är 70% av turbofrekvensen och då blir rätt stor skillnad i strömförbrukning.

Visa signatur

kill -s SIGCHLD `pidof Kenny`
bash: Oh my god, they killed Kenny
init: You Bastards

Permalänk
Medlem
Skrivet av stef88:

Undrar varför CPU Framerate är lägre med AMD-kortet. Spelet rapporterar ju att båda processorerna är 5930k 3,5 GHz, men kanske spelet inte rapporterar överklockningen. Eller så kräver AMD fortfarande mer av processorn än Nvidia, men å andra sidan märktes det mest med klena processorer.

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?

Permalänk
Datavetare
Skrivet av Jonathanknet:

AMD is the first gfx vendor to ship a SPIR-V extension for Vulkan. good for devs accessing GCN w/ Vulkan.
https://twitter.com/Thracks/status/735085941845417985

https://www.youtube.com/watch?v=P7RSszCPt68&feature=youtu.be&...

Vad menar dom? Ger dom utvecklarna mer tillgång till arkitekturen?
@yoshman

Hehe, GPUOpen och intrinsics. Vad detta möjliggör för utvecklaren är att lägga in GCN specifika instruktioner i programmet. Jämför detta med Gameworks som uteslutande använder standardfunktioner från DX11/DX12, med Gameworks väljer Nvidia naturligtvis att implementera saker på sätt som fungerar bra på deras kort men allt man gör med Gameworks fungerar alltid på alla kort som har de DX11/DX12 funktioner som används.

Använder man intrinsics så låser man ner funktionen till de kretsar som faktiskt har instruktionen, det fungerar överhuvudtaget inte om dessa saknas.

En vanlig användning av intrinsics för CPUer är ihop med C och C++ där man vill använda SIMD, vilket för x86 betyder SSE/AVX. Anledningen att man använder intrinsics här är därför att man inte kan uttrycka garantier kring datastrukturer i standard C/C++ på ett sätt så att en generell kompilator på ett säkert sätt kan använda SSE/AVX. Intrinsics är här i praktiken ett sätt att använda assembler ihop med vanlig C/C++, jag som utvecklare tar på mig ansvaret att användningen av SSE/AVX är korrekt.

Den uppenbara nackdelen med kod som använder SSE/AVX på detta sätt är att den inte går att kompilera på t.ex. ARM, då måste alla x86 specifika intrinsics ersättas med motsvarande ARM NEON instruktioner, något som är allt annat en enkelt då det finns ganska fundamentala skillnader på denna nivå.

Är helt uppenbart att AMD här hoppas att deras clean-sweep för konsoler ska få utvecklare att tycka det är värt att specialoptimera för GCN. Med stöd för intrinsics via GPUOpen kan man då få in dessa GCN-specifika optimeringar även på PC.

Personligen ser jag absolut inget fel i detta, det är AMDs förbannade skyldighet att göra allt de tror gynnar deras aktieägare. Blir dock väldigt ihåligt för AMD-anhängarna att klaga på Gameworks efter detta, för det här är en helt annan nivå på att låsa saker till en viss krets!

Skrivet av houze:

Dagens GPU:er och CPU:er har så många saker som förändras baserat på belastning att strömförbrukning kan man knappt mäta och jämföra vid olika belastning. Skillnaden mellan 80% och 100% belastning kan ju vara 200-300MHz (plus turbo) och med att strömförbrukningen oftast stiger mer än linjärt (ökad spänning för att driva ökad frekvens).
Frågan är nog vad dina 80-85% är baserat på, jag antar du får det från någon GPU-monitorprogramvara, räknar den 80% på någon form av NOOP-användning eller på kretsens beräkningspotential vid max turbofrekvens eller kanske helt annat.
Är det baserat på något idle-värde så kör antagligen kretsen i någon basfrekvens då det inte finns nytta av att processa idle-loops snabbare, vilket gör att 80% belastning vid basfrekvens igentligen är 70% av turbofrekvensen och då blir rätt stor skillnad i strömförbrukning.

Använde MSIs "Gaming App" och det mätte när jag körde lite olika spel med vsync påslaget. GPU-frekvensen är alltid 1348 MHz när man kör spel. Det lustiga med den frekvensen är att kortet inte är överklockat utöver att det körs i "OC-läget" (som är officiell "fabriksöverklockning" för kortet) i MSIs "Gaming app", enligt specifikation så är maximal turbo 1279 MHz i detta läge. Har i.o.f.s. väldigt bra kylning av GPUn, två 120 mm chassifläktar trycker in luft rakt in i GPUn.

Att mäta GPU-lasten är ju rätt trivialt för drivaren, det är andelen det finns minst ett jobb "in-flight" på GPUn. Förändring av frekvensen har, precis som på CPUer, en viss hysteres då det tar ganska lång tid att stabilisera klockan på en ny nivå. Lång tid i dessa sammanhang är tiotals millisekunder, d.v.s. ligger man på 50 % last eller mer bör man stanna på maximal frekvens.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer