AMD Radeon RX 480 utan kylare på bild

Permalänk
Medlem
Skrivet av criscros:

Jag har noterat en väldigt bra detalj från den nakna bilden på kortet! Och det är att bildanslutningarna INTE tar upp onödig plats så vi kan nu skruva av metalbiten,byta till plattare kylarlösning(kanske gpu block?) och andvända oss utav en pcieraiser och voila så har vi speldatorer i minimalt format för ett "behagligt" pris

De som är nöjda med stock prestanda skulle nog kunna undervolta och kanske köra helt passivt med någorlunda bra luftflöde i chassit?

De korten som får hbm minne borde ju kunna tillverkas som low profile kort..

Det ser ljust ut för amd tycker jag kanske inte på swec men deras förmåga att alltid tänka andra saker än enbart rå prestanda glädjer mig oerhört!

Det finns såååååå mkt mer jag tar in i ekvationen innan jag gör ett köp än enbart prestanda.

Men det är rätt tydligt att deras nya generation gpuer är i grund och botten skapat på ett sätt där det ska bli mkt lättre för amd att använda samma gpuer i flera olika applikationer utan större förändringar i deras produktion vilket leder till effektiv/smart lösning mellan desktop,mobile och console:)

De minskar förbrukningen samt minsksr psu kraven och detta är väldigt viktigt för många!

jag uppskattar en helhet, amd kommer leverera.

Du har något där. Bygga egen låda så platt som möjligt med max 100-150 watt tdp. Det är bättre än konsoll och har mer kraft. Passiv eller undervoltad med fläkt 470/480 med i3/i5 eller APU, mini-PSU och tyst. Borde inte kosta mer än runt 4000 sammanlagt.

Edit. Kan inte SWEC göra en test där de testar att så billigt som möjligt göra speltester med minst 30 fps i 1080p tex.

Permalänk
Medlem
Skrivet av CCWarlock:

Coolt. Liten formfaktor alltså, bra jobbat AMD!

På referens-designen så sticker kylaren ut en bit där bak. Set ut att bli bara något kortare än Nvidias referensdesign.

Jag hoppas att det kommer ett tredjeparts-kort där kylaren inte är längre än kortet.

Visa signatur

För övrigt anser jag att tobak ska förbjudas.

Permalänk
Medlem
Skrivet av Yoshman:

...Pascal har minst lika bra stöd som GCN för hantering av högprioritetsjobb (Compute Preemption) samt betydligt bättre stöd för att köra grafik och compute parallellt.

Det här är inte mitt område, men jag hade intrycket att GCN kunde blanda grafik och compute i samma CU och är snabbare, medan Intel och nVidia måste köra antingen det ena eller det andra, inte båda samtidigt, och är långsammare.

(Sebbbi förklarar: https://forum.beyond3d.com/posts/1911098/ )

Permalänk
Datavetare
Skrivet av OllO:

Det här är inte mitt område, men jag hade intrycket att GCN kunde blanda grafik och compute i samma CU och är snabbare, medan Intel och nVidia måste köra antingen det ena eller det andra, inte båda samtidigt, och är långsammare.

(Sebbbi förklarar: https://forum.beyond3d.com/posts/1911098/ )

Man kan inte säga att GCN generellt sett är snabbare, på vilket sätt skulle den vara det?

Däremot är det korrekt att inte vare sig Maxwell eller Pascal kan blanda grafik och beräkningar i samma SM, men det är i sig irrelevant då det är en implementationsdetalj.

Finns naturligtvis fall där det är en fördel att kunna köra både beräkning och grafik i samma CU, t.ex. om de utnyttjar väldigt olika delar av beräkningsenheterna. Men finns också fall där det är en nackdel att köra dem i samma CU, t.ex. om den ena lasten använder väldigt mycket data som då trashar cachen för det andra jobbet som kanske har väldigt bra cache-lokalitet (detta är ett typexempel på där Hypertheading fungerar dåligt).

Det som gör att Maxwell i praktiken aldrig ser något positivt tillskott är att SM måste delas upp statiskt mellan de olika jobben. Tänk då om man startar ett beräkningsjobb och ett grafikjobb, man man inte gå vidare innan båda är klar. Det blir nu en extrem balansakt som hamnar i känt på spelutvecklaren att göra denna uppdelning så båda jobben blir klar samtidigt. Nyheten i Pascal är att, likt GCN, fördelning sker dynamiskt så om ena jobbet blir klar tidigare snabbas det andra på då det får alla resurser när det första är klart.

Hur Intel fungerar här vet jag faktiskt inte, men tror faktiskt inte den har något problem att blanda jobb som kör på olika trådar givet vad jag läst om den designen. Det är 7 (! reagerade också på att det inte var en potens av två) trådar per EU (är 24 EUs i HD530 vilken är den iGPU som sitter i t.ex. 6600K/6700K).

Edit: Sebbbi blandar ihop det nästa alla andra också blandar ihop. "Async compute" är precis som "Hyperthreading" ett marknadsnamn av respektive företags specifika implementation av en viss teknik. Async compute är inte en vedertagen term, men tyvärr använder DX12 termen fast där betyder det inte riktigt samma sak som vad AMD menar

Vad AMD menar med "Async compute" är "parallel dispatch of multiple shaders". Order parallell är nyckeln här, för sättet som DX12 beskriver det asynkrona beteende som måste implementeras av alla kort som stödjer DX12 har överhuvudtaget inget krav på att saker ska köras parallellt. Asynkront betyder bara oberoende i tid, det säger alltså något som relationen mellan två uppgifter men det säger inget om när dessa körs i förhållanden till varandra (det är irrelevant om de är oberoende).

Precis som det står där så kan inte Maxwell eller Pascal köra olika uppgifter parallellt i samma SM, däremot kan dessa köras parallellt sett över hela kretsen. GCN kan köra olika uppgifter parallellt även inom en CU. Det är en implementationsdetalj och inget som DX12 överhuvudtaget säger något om.

Edit2: hittade info om Intel, en EU kan inte köra grafik och beräkning parallellt. Inte ens gen9 som sitter i Skylake. Notera att man fortfarande fullt ut kan stödja alla funktioner i DX12 då DX12 inte säger något om att två asynkrona jobb (två jobb som postas på olika köer) måste köras parallellt. Vad DX12 säger är att om man postar två jobb på olika köer så är det tillåtet för underliggande implementation att hantera dessa på sätt som kräver att de är oberoende, t.ex. köra dem parallellt.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hedersmedlem
Skrivet av Findecanor:

På referens-designen så sticker kylaren ut en bit där bak. Set ut att bli bara något kortare än Nvidias referensdesign.

Jag hoppas att det kommer ett tredjeparts-kort där kylaren inte är längre än kortet.

PRecis!

Visa signatur

yayaya I am Lorde yayaya

Permalänk
Medlem
Skrivet av Yoshman:

Att man ökar prestanda över tid är sant, men testar man verkligen samma titlar visade denna artikel att Nvidia faktiskt också ökar sin prestanda över tid med ganska exakt lika mycket som AMD.

Problemet för Nvidia (eller vinsten för AMD om man vill se glaset halvfullt) är specifikt Kepler. Läser man devbloggar och diskussioner mellan spelprogrammerare så ser man att i princip alla är ense om att Kepler är en bräcklig design, den kräver specifik optimering och det är svårt att få ut maximalt ur kretsen. Sedan verkar det också som spel börjat använda effekter som allt mer stressar ROPs, jämför man motsvarande kretsar så är GCN ungefär 50 % högre ROP-kapacitet och Maxwell ungefär 100 % högre ROP-kapacitet jämfört med Kepler.

Sedan lansering av Maxwell finns inte samma trend att AMD relativt sett presterar bättre. Finns specifika titlar som Ashes of the Singularity och Hitman där AMD presterar riktigt bra. Men man kan lika gärna peka på spel som Project CARS och Rise of the Tomb Raider som exempel på att Nvidia drar ifrån. Båda ger lika felaktig slutsats.

Och svårt att se hur något kan dra några slutsatser om DX12 i det här läget. Ashes of the Singularity är på alla sätt och vis en abnormitet i hur korten presterar relativt varandra och i övriga titlar är det i princip ingen skillnad mellan DX11 och DX12 prestanda (och Nvidia presterar definitivt bättre i Rise of the Tomb Raider även i DX12).

Rimligtvis kommer GCN få större nytta av DX12 än Maxwell, men det är inte självklart och Pascal har minst lika bra stöd som GCN för hantering av högprioritetsjobb (Compute Preemption) samt betydligt bättre stöd för att köra grafik och compute parallellt. Maxwell stödjer faktiskt detta, men kräver statiskt partitionering av SMMs mellan jobben vilket i praktiken kräver konsolnivå på optimeringen för att ge en positiv effekt, d.v.s. kommer inte hända. Pascal har dynamisk partitionering även om den inte är lika finmaskig som GCN.

Som vanligt kör du din strategi att vimsa iväg från ämnet för att låta undervisande för utomstående läsare.
Även din egen länk visar att AMD drar iväg några procent. Men det hela handlar inte bara om ett litet urval spel som funnits med i mixen länge, utan även hur utvecklingen är med spel som kommer nu och framöver. Det är ju lite där man ska titta om man vill se framtidssäkerheten.
Många vill minnas att GTX 680 är snabbare än 7970. Men så ser det verkligen inte ut idag. Redan med 7970GHz så gick ju 7970 upp i 7% ledning med höjda frekvenser och drivrutinsoptimeringar. nVidia tog igen det sedan med att släppa GK104 som GTX 770 som blev jämnsnabb medans AMD sänkte frekvenser med 280X till att ligga 2% efter. Men vid recensionen av 980Ti så hade 280X redan ökat 13% i prestanda mot GTX 770 jämfört med när 280X kom.

2013-10-08

2015-06-01

Sett till att 7970GHz är 2% snabbare än 280X och GTX 680 är 6% långsammare än GTX 770 så ser man att skillnaden mellan 7970GHz och GTX 680 torde vara långt större än dessa 13%. 7970 som en gång ansågs långsammare än GTX 680 vid lanseringen av 980Ti faktiskt precis lika gärna kunde jämförts med den en gång övermäktiga Titan istället. Att 7970 klättrar så mycket som halvvägs till Titan går inte obemärkt förbi. Självklart yttrar det sig annorlunda på andra sidor med annorlunda spelmix, men trenden finns, och SweClockers har ett sällsynt bra prestandaindex med en testdator som inte ger några onödiga flaskhalsar vilket underlättar denna typen av jämförelser.

SweClockers läsare ser samma sak med 290X. Från att ha varit 8% långsammare än 780Ti så har 290X gått till att bli 7% snabbare. Det är en ökning med 16% gentemot 780Ti. Nästan en hel prestandaklass där med.
2013-11-07

2016-05-17

Permalänk
Datavetare
Skrivet av Aleshi:

Som vanligt kör du din strategi att vimsa iväg från ämnet för att låta undervisande för utomstående läsare.
Även din egen länk visar att AMD drar iväg några procent. Men det hela handlar inte bara om ett litet urval spel som funnits med i mixen länge, utan även hur utvecklingen är med spel som kommer nu och framöver. Det är ju lite där man ska titta om man vill se framtidssäkerheten.
Många vill minnas att GTX 680 är snabbare än 7970. Men så ser det verkligen inte ut idag. Redan med 7970GHz så gick ju 7970 upp i 7% ledning med höjda frekvenser och drivrutinsoptimeringar. nVidia tog igen det sedan med att släppa GK104 som GTX 770 som blev jämnsnabb medans AMD sänkte frekvenser med 280X till att ligga 2% efter. Men vid recensionen av 980Ti så hade 280X redan ökat 13% i prestanda mot GTX 770 jämfört med när 280X kom.

2013-10-08
http://cdn.sweclockers.com/artikel/diagram/4595?key=968cbb866262646d5fbc59aad37de058
2015-06-01
http://cdn.sweclockers.com/artikel/diagram/9932?key=538c3451f4482920ec19c0541798b39d

Sett till att 7970GHz är 2% snabbare än 280X och GTX 680 är 6% långsammare än GTX 770 så ser man att skillnaden mellan 7970GHz och GTX 680 torde vara långt större än dessa 13%. 7970 som en gång ansågs långsammare än GTX 680 vid lanseringen av 980Ti faktiskt precis lika gärna kunde jämförts med den en gång övermäktiga Titan istället. Att 7970 klättrar så mycket som halvvägs till Titan går inte obemärkt förbi. Självklart yttrar det sig annorlunda på andra sidor med annorlunda spelmix, men trenden finns, och SweClockers har ett sällsynt bra prestandaindex med en testdator som inte ger några onödiga flaskhalsar vilket underlättar denna typen av jämförelser.

SweClockers läsare ser samma sak med 290X. Från att ha varit 8% långsammare än 780Ti så har 290X gått till att bli 7% snabbare. Det är en ökning med 16% gentemot 780Ti. Nästan en hel prestandaklass där med.
2013-11-07
http://cdn.sweclockers.com/artikel/diagram/5033?key=6fe6b05fcb87754026062d6c4b0fe0b3
2016-05-17
http://cdn.sweclockers.com/artikel/diagram/11130?key=42b1e6d5e66f058c1fe5a8fbf3d03653

Varför är det så svårt för många att tänka ett steg till eller följa resonemang som består av mer än ett uppenbart steg? Jag skriver, i min mening helt klart och tydligt, att jämfört med Kepler så har GCN i genomsnitt bättre prestanda i dagens spel jämfört med de spel som var aktuella vid lansering.

Påståendet många har är att AMDs optimeringar i drivrutiner ökar prestanda över tid. Det är sant, men Nvidias kort ser ungefär samma ökning under samma tid. Det enda sätt att jämföra just hur drivrutiner påverkar prestanda är att jämföra samma uppsättning spel och variera drivrutin version, d.v.s. man ändrar en parameter. SweClockers prestandaindex kan inte användas för att visa att det ena kortet fått mer optimeringar i drivare då man under åren ändrar vilka spel som ingår, det är så grundläggande att alla borde greppa det kan man tycka.

Det är också så att GCN och även Maxwell har under de senaste två åren (sedan GM204 först lanserades) dragit ifrån Kepler. Det har en annan underliggande orsak än drivrutiner. Att Kepler-kretsen har en fördelning av resurser som givet den riktigt spelutvecklingen tagit idag är väldigt illa balanserad är inget som går att fixa med drivrutiner, oavsett hur mycket resurser man lägger på det.

Ovanpå det har spelprogrammerare redan från lansering av Kepler klagat på att kretsen är väldigt bräckligt, d.v.s. den kräver väldigt mycket mer handoptimering än GCN, Maxwell och även än Fermi. Jämfört du 970 och 290X vid release och hur det ser ut idag så är skillnaden inom all rimligt felmarginal identisk. Så hur blir då AMDs kort bättre med tiden när det bara är mot en specifik krets denna fördel finns?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Varför är det så svårt för många att tänka ett steg till eller följa resonemang som består av mer än ett uppenbart steg? Jag skriver, i min mening helt klart och tydligt, att jämfört med Kepler så har GCN i genomsnitt bättre prestanda i dagens spel jämfört med de spel som var aktuella vid lansering.

Påståendet många har är att AMDs optimeringar i drivrutiner ökar prestanda över tid. Det är sant, men Nvidias kort ser ungefär samma ökning under samma tid. Det enda sätt att jämföra just hur drivrutiner påverkar prestanda är att jämföra samma uppsättning spel och variera drivrutin version, d.v.s. man ändrar en parameter. SweClockers prestandaindex kan inte användas för att visa att det ena kortet fått mer optimeringar i drivare då man under åren ändrar vilka spel som ingår, det är så grundläggande att alla borde greppa det kan man tycka.

Det är också så att GCN och även Maxwell har under de senaste två åren (sedan GM204 först lanserades) dragit ifrån Kepler. Det har en annan underliggande orsak än drivrutiner. Att Kepler-kretsen har en fördelning av resurser som givet den riktigt spelutvecklingen tagit idag är väldigt illa balanserad är inget som går att fixa med drivrutiner, oavsett hur mycket resurser man lägger på det.

Ovanpå det har spelprogrammerare redan från lansering av Kepler klagat på att kretsen är väldigt bräckligt, d.v.s. den kräver väldigt mycket mer handoptimering än GCN, Maxwell och även än Fermi. Jämfört du 970 och 290X vid release och hur det ser ut idag så är skillnaden inom all rimligt felmarginal identisk. Så hur blir då AMDs kort bättre med tiden när det bara är mot en specifik krets denna fördel finns?

Läs igenom din egna länk. Det är inte samma uppsättning spel de jämför med alls. Din egna länk har enbart två spel gemensamma i originaltestet mot rematchen. Du diskvalificerar din egna länk mer än du diskvalificerar Sweclockers prestandaindex. Du gör bort dig totalt om du tror att det är samma spel de baserar siffrorna på.
De nämner att endast 4 spelen de testar i rematchen fanns tillgängliga vid första testet, men det innebär inte att alla 4 testat. Dessutom framgår det tydligt att de basera sina siffror på alla spel och inte endast dessa två.
I dessa två test så går 780Ti från att ha 5% prestandaövertag till att ligga efter med 0,3%.
Titta på hur prestandaövertaget ändrats för 780Ti i de ynka två testerna som är samma i din länk:

Hitman
101,9% -> 103,5%
Tomb Raider:
108,2% -> 95,9%

Ganska stora skillnader som AMDs drivrutinsoptimeringar medfört. Kan ju tillägga att de körde med olika inställningar mellan testen i Hitman så det är svårare att jämföra rakt av där vilket i princip lämnar Tomb Raider. Känns det som att du får stöd för dina påståenden?

Det man annars brukar höra är att GCN är mer general purpose och inte lika målinriktad för spel som Kepler. Det och att AMD har större overhead gör att AMD har mer att vinna på optimeringar än Kepler. Vilket vi ser i prestandapåslagen som kommer genom drivrutiner både i din egna länk och i Sweclockers recensioner.

Ska vi gå igenom Sweclockers recensioner spel för spel? Jag tror du blir besviken då, men upp till dig om du vill ge upp nu eller inte.
Vill du jag ska stryka under överallt där du misstagit dig?

Permalänk
Datavetare
Skrivet av Aleshi:

Vill du jag ska stryka under överallt där du misstagit dig?

Ja det vore jättebussigt!

Nä seriöst. Du har faktiskt en väldigt bra poäng, Hardwarecanucks har i grunden samma problem som prestandaindex om målet är att specifikt att reda ut om AMDs kort fått mer prestanda via drivare än Nvidia. Mitt "bevis" är ånga, men det går åt båda hållen så finns heller inget bevis för motsatsen.

Men ponera att det faktiskt är så att AMD fått mer optimeringar via drivare och prestandaindex går att använda som bas för resonemanget. Varför är det bara mot Kepler man ser detta, 290X och 970 presterar idag inom all rimlig felmarginal exakt lika idag som när 970/980 lanserades.

Antag sedan att Maxwell är undantaget och inte Kepler här. Hur är en skillnad på 5-10 % överhuvudtaget relevant? Skillnaden mellan referenskorten och korten mer eftermarknadskylare är mellan 5-20 %, men även med 20 % ökning så är det inget som ändras i sak. Man kan köra exakt samma upplösningar med samma inställningar, eventuellt kan det skilja i någon enskild inställning om man siktar på att aldrig nå under en viss genomsnittlig FPS. Att gå från 1920x1080 till 2560x1440 kräver 80 % mer kraft, i många spel ger en ändring i skuggnivå med ett snäpp 10-20 %.

Skrivet av Aleshi:

Ska vi gå igenom Sweclockers recensioner spel för spel? Jag tror du blir besviken då, men upp till dig om du vill ge upp nu eller inte.

Här är jag inte sarkastisk när jag säger: jättegärna! Enda anledningen att jag skriver på dessa forum är för att jag gillar teknik och är få saker som jag inte finner intressant. Skulle se det som en stor välgärning och nu har tid och ork att göra en sådan genomgång, kommer absolut studera resultatet med stort intresse!

Fast får känslan att du på något sätt försöker sätta en Nvidia-märkning på mig. Kan då nämna att det 970 jag köpte förra hösten är den första Nvidia dGPU jag köpt sedan Geforce256 (som jag köpte direkt vid lansering enbart för den hade HW T&L och ville testa programmera för detta). Alla kort däremellan har varit ATI/AMD (har däremot haft en rad Nvidia-kort i laptops, men där väljer man inte precis vad som sitter i...).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Anwest:

Jag är i precis den sitsen. Antingen 970/980 eller 480, och jag kommer att vänta på 480. Dels för det som läckt ut tyder på en bättre prestanda än 970 för ungefär samma slant, och dels för den låga strömförbrukningen hos 480. Det är ju trots allt bara två veckor till den 29 juni när kortet ska släppas.

Det kommer ta ett tag innan det finns volym, men det kan jag vänta på.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av Ratatosk:

Från artikeln, min fetstil.
Alltså 2100 kroner för ett RX480 med 4GB och 2400 för ett med 8GB.
Skyll inte på AMD om någon annan försöker ta ut överpriser.

Jag fattar inte det. 8.84 står dollarn i och sedan lägger man på 25% för moms. 11.05 * $199,$249 = 2198kr, 2751kr. Det blir som billigast detta. Men det verkar inte som partnertillverkarna är med på de priserna riktigt.

Visa signatur

Hur många datorer är för många?

Permalänk
Hjälpsam
Skrivet av kelthar:

Jag fattar inte det. 8.84 står dollarn i och sedan lägger man på 25% för moms. 11.05 * $199,$249 = 2198kr, 2751kr. Det blir som billigast detta. Men det verkar inte som partnertillverkarna är med på de priserna riktigt.

Står väl snarare under 8,3, sedan sägs ju inte 8 GB kosta 249 utan 229.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

Står väl snarare under 8,3, sedan sägs ju inte 8 GB kosta 249 utan 229.

Lol-fap, jag menade 8,4 ... 2404 som billigast då. Men antagligen mer än så. Kanske 2800. Jag vill lägga 2500, då är jag supernöjd.

Fast man kanske klarar sig på 4GB VRAM i 1080 / 1440?

Visa signatur

Hur många datorer är för många?

Permalänk
Inaktiv
Skrivet av kelthar:

Lol-fap, jag menade 8,4 ... 2404 som billigast då. Men antagligen mer än så. Kanske 2800. Jag vill lägga 2500, då är jag supernöjd.

Fast man kanske klarar sig på 4GB VRAM i 1080 / 1440?

Dumt att köpa 4GB modellen om 8GB inte kostar så mycket mer. Man kan aldrig ha för mycket minne och systemkraven ökar hela tiden. Syns även bra på tidigare generationer där kort med mindre mängd VRAM pensioneras tidigare. Idag urgamla HD7970 står sig fortfarande bra tack vare att dessa kom med 3GB. GTX 670/680 hade som standard 2GB vilket begränsar en hel del. Fanns även 4GB-modeller men dessa är ovanliga.

Själv ska jag ha 8GB i mitt nästa grafikkort. Vilket lär bli 8GB HBM2 då jag inväntar Vega.