Premiär! Fyndchans i SweClockers Månadens Drop

AMD tillkännager "Polaris" Radeon RX 480 – kostar drygt 2 000 kronor

Permalänk
Medlem
Skrivet av Yoshman:

Datumet för lansering av 480 är väl satt till 29 juni? Polaris 11 kanske initialt helt är riktad mot bärbara och då är lanseringsdatum mindre viktigt, frågan är när enheter kan tänkas komma som har dessa kretsar.

Nej

29 Juni är för NDA av benchmarks för de som besökte det privata eventet i Macau.

De har sagt slutet Juni och därför är det konstigt varför man inte bara kan säga datum rakt ut?

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Inaktiv

Vad gäller GPU-användningen får det mig att undra om AdoredTVs spekulation om att AMD satsat hårt på applikationer där flera GPUer används ihop där de också används effektivare än tidigare. Mycket av den teorin grundade sig i scenariot där troligen Sony skulle stoppa in mer än en AMD GPU i nya PS4an.

Är väl det som gör grafen hyffsat begriplig. Annars var det ett udda val att visa upp vad kretsen går för.

Skickades från m.sweclockers.com

Permalänk
Medlem

Blir o vänta på en recension.

Permalänk
Hjälpsam

En månad senare än jag hoppades, men under sommaren skall man ändå inte sitta inne med datorn.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Folk bör ju tänka på att CFX skalar bra mkt bättre än SLI, massa skit om multigpu från folk som inte testat eller tror att Sli/Cfx presterar identiskt.

Dx12 ska ju lösa alla problem med Multigpu lösningar sägs det, så mala på om samma "Mer än 1 gpu suger"-Dx11 Snack som ekat i 5 år börjar blir lite tjatigt. Funkar Multigpu som det ska blir ju dessa kort ännu bätte köp. Saknar dock 2560Cores/40Cu som de ryktades om, vi ser kanske fulla polaris i 480x/490 efter nvidia visat sina kort.

Permalänk
Datavetare
Skrivet av PalmiNio:

Nej

29 Juni är för NDA av benchmarks för de som besökte det privata eventet i Macau.

De har sagt slutet Juni och därför är det konstigt varför man inte bara kan säga datum rakt ut?

Ok. Men om man sagt att lansering är slutet av juni och NDA för benchmarks lyfts 29:e så finns ju i praktiken bara två dagar där lansering kan ske, 29 eller 30. Att NDA skulle lyftas efter man faktiskt lanserat kortet vore ju totalt meningslöst.

Skrivet av Ratatosk:

En månad senare än jag hoppades, men under sommaren skall man ändå inte sitta inne med datorn.

Du bor inte i Sverige va? Det var 5 grader "varm" den tidiga morgon förra året i juli när vi drog till värmen

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Jag är nästan helt säker på att ett av de korten kommer ligga långt efter både 1080 och 1070, och 2 stycken av dem kommer inte ligga på samma nivå som 1080...

De har lyckats hitta något specifikt scenario där detta stämmer, och presenterar bara det.

2 stycken av de korten kanske kommer på liknande eller strax över 1070, men det är fortfarande bättre att ha ett kort, och 1070 kommer kosta som 2 AMD kort ändå

EDIT: Att ett av dessa korten skulle kunna prestera som 1080 (med tanke på det där med 50% användning i crossfire) är absurt... Tror ni inte dom hade visat oss prestanda från bara ett kort då?

Vi kommer se annorlunda resultat när vi sammanställer ett antal olika spel, utan DX12, för det är fortfarande knappt några spel som kör det, och det är väldigt dåligt optimerat.

Är ingen Nvidia fanboy, har faktiskt kört med AMD större delen av mitt liv, men tror inte AMD kan konkurrera inom prestanda segmentet

Permalänk
Medlem

Spännande, men samtidigt lite oroande. Har verkligen AMD något att komma med denna gång som på riktigt kan utmana Nvidias singelkort? Det verkar onekligen inte så när man gör konstiga jämförelser som med ett jätteoptimerad AMD-spel och använder två GPU som bara går till 50 %...

Visa signatur

Intel Core i5 13500 3,5 GHz | Sapphire Radeon RX Vega 56 Pulse 8 GB | Gigabyte B760M Aorus Elite | EVGA Supernova 750 G2
Corsair 32 GB DDR5 5600 MHz CL36 Vengeance | Corsair Carbide Air 540 | Acer XF270HUA | Ducky Shine 3 | Logitech G305

Permalänk
Medlem
Skrivet av Yoshman:

Problemet med tekniken som CF/SLI använder, AFR, är att allt fler spel använder allt mer post-processing effekter som behöver information från föregående scen som indata. En av förutsättningarna för att AFR ska skala nära linjärt är att varje scen är helt oberoende, vilket alltså allt mindre är fallet.

Har själv aldrig tyckt att CF/SLI är värt huvudvärken så lade in så mycket möda på att förstå nyheterna kring CF/SLI denna generation. Av en ren slump råkade dock detta passera på näthinnan och var ju det kring hur Pascals nya SLI-brygga möjliggör delning av VRAM mellan två kort

"LDA Implicit is where the current iteration of SLI resides. Within its walled garden, the GPU memory pools can interact with one another so they appear to be one large pool of memory to the OS and associated applications."

Det multi-GPU läge fått mest omnämnande i media kallas MDA, Multi Display Adapter. Det är tekniken som AoS använder och där det alltså går att använda kort från olika tillverkare. Här presenteras varje GPU som en eller flera arbetsköer och det är helt upp till applikationen att använda tillgängliga resurser på något vettigt sätt.

DX12 har dock två lägen till för fler GPUer, båda dessa lägen är varianter av LDA, Linked Display Adapter, och här krävs i praktiken två eller flera GPUer av samma modell. Den variant som Nvidia siktar på med Pascal och orsaken till att man nu officiellt bara stödjer 2-vägs SLI heter "LDA Implicit". I detta läge länkar man ihop två kort via en SLI-brygga, spelet ser endast en GPU och nyheten i Pascal är alltså att de två korten kan dela VRAM vilket i teorin betyder att man inte måste köra AFR! Ska bli spännande och se hur bra/dåligt detta fungerar i praktiken samt om AMD har något liknande på lur.

Jag väljer att skriva multigpu istället för MDA då det är enklare när man talar generellt om både Vulkan och DX12.
Multigpu-stödet är en enorm skillnad från tidigare och det kan delas många resurser mellan både fysiska och logiska multipla grafikkort.
Minnesdelningen mellan kort fanns redan i mantle (grOpenPeerMemory) men tror inte det kommit in i vulkan än men det kommer.
Med det nya grafik API:erna så finns det en helt annan frihet för hur de olika korten ska användas och vilka jobb som ska utföras på varje kort.
Allt detta ligger på utvecklaren av applikationen hur och vad de väljer att implementera.

Permalänk
Medlem
Skrivet av Wifi:

Spännande, men samtidigt lite oroande. Har verkligen AMD något att komma med denna gång som på riktigt kan utmana Nvidias singelkort? Det verkar onekligen inte så när man gör konstiga jämförelser som med ett jätteoptimerad AMD-spel och använder två GPU som bara går till 50 %...

För nVidia väljer aldrig de spel som passar dem eller?

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem
Skrivet av Ratatosk:

En månad senare än jag hoppades, men under sommaren skall man ändå inte sitta inne med datorn.

Prata för dig själv!

Visa signatur
Permalänk
Medlem
Skrivet av PalmiNio:

För nVidia väljer aldrig de spel som passar dem eller?

Jo det gör dom, men vi har tester på 1080 och 1070 redan, och de presterar bra överlag. Det är bara inom DX12 det är väldigt konstiga resultat, där potentiell prestanda inte alltid vinner...

Det är därför det är fult av AMD att visa resultat i DX12 tycker jag...

Permalänk
Medlem
Skrivet av anon5930:

Vad gäller GPU-användningen får det mig att undra om AdoredTVs spekulation om att AMD satsat hårt på applikationer där flera GPUer används ihop där de också används effektivare än tidigare. Mycket av den teorin grundade sig i scenariot där troligen Sony skulle stoppa in mer än en AMD GPU i nya PS4an.

Är väl det som gör grafen hyffsat begriplig. Annars var det ett udda val att visa upp vad kretsen går för.

Att vi kommer få se flera GPU:er som samspelar inom en snar framtid är inget magiskt förutseende utan en naturlig utveckling som får en extra spark tack vare VR.

Permalänk
Medlem

Undrar lite hur överklockningspotentialen är? Skulle vara kul om man kan överklocka den lite som 970 vart, så man får ännu bättre prestanda för kronan, dock så har vi ju sätt med Nvidias FinFet så blir korten väldigt varma. Så det kan bli problem för AMD också på den fronten.

Visa signatur

En dator

Permalänk
Medlem
Skrivet av Hevin:

Jo det gör dom, men vi har tester på 1080 och 1070 redan, och de presterar bra överlag. Det är bara inom DX12 det är väldigt konstiga resultat, där potentiell prestanda inte alltid vinner...

Det är därför det är fult av AMD att visa resultat i DX12 tycker jag...

Vad är fult med DX12?

Ska man köra retro och visa DX10 och köra lite vintage vibbar? Kanske börja benchmarka mot Far Cry 1 igen?

DX12 är ett API som kommer komam mer och mer, det är den bittra sanningen. Kommer det bli lika stort som DX11? Tror själv inte det men då marknaden bara har 2 stora API:er för grafik och Windows fortfarande är största plattformen så kan du vara ganska säker att DX12 kommer bli större snabbt.

"Det är bara inom DX12 det är väldigt konstiga resultat, där potentiell prestanda inte alltid vinner..."

Vad är det för konstig formulering? Om du har bättre prestanda i ett DX12 spel än ett annat kort så har du väl bättre prestanda i spelet än ett annat?

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem

@Hevin:
Presterarar aningen bättre än ett överklockat 980ti, menar du alltså
Tycker personligen att 1080, är ingen större bedrift.. De har höjt klocken till dess gräns, för att utprestera 980Ti

Visa signatur

Hårdvaru och mjukvaru intresserad

Permalänk
Medlem
Skrivet av Hevin:

Jo det gör dom, men vi har tester på 1080 och 1070 redan, och de presterar bra överlag. Det är bara inom DX12 det är väldigt konstiga resultat, där potentiell prestanda inte alltid vinner...

Det är därför det är fult av AMD att visa resultat i DX12 tycker jag...

Båda tillverkarna kommer alltid att använda det bästa för sina kort. Så du tycker att AMD inte ska använda DX12 siffror bara för att några tomtar på internet har visat att 1080/1070 inte är bra i DX12?

Visa signatur

En dator

Permalänk
Medlem
Skrivet av PalmiNio:

Samtidigt måste vi plöja ner vad som är vad här:

- AoS är AMD:s flaggspel så om 2x480 = 1x1080 i detta spel så är nog sanningen att det kommer vara under i de flesta fallen.
- Det är fortfarande CrossFire, vilket alltid betyder sämre än Singel GPU. Tyvärr

Jag förväntar mig att Radeon 480 i worst case kommer ligga runt GeForce 970 och i Best Case kommer vara nära GeForce 980 TI (så som i AoS och DX12 spel)

Samtidigt är jag vääääldigt skeptiskt då:
1. De har inte sagt ett datum
2. Vart är alla andra kort?
3. Ska man lyckas med ett super mid range kort så måste man ha volym direkt!

Sen tror jag tyvärr att nVidia har ekonomiska muskler att väldigt snabbt köra ett GTX 1060 för 249 USD med 8GB som edgar precis ovanför 480.

jag tror inte att en jämförelse med ett mid tier mellan klass kort och ett high-end tier kort (1080) är en rättvis jämförelse även om du försöker lista ut prestandan på amd's höst release. det kommer bli rx 480 cf för mig eller 490. för mycket bang for the buck som sitter här. jag väntar med alla slutsatser till varenda kort har kommit ut.

Permalänk
Medlem
Skrivet av Hevin:

Jo det gör dom, men vi har tester på 1080 och 1070 redan, och de presterar bra överlag. Det är bara inom DX12 det är väldigt konstiga resultat, där potentiell prestanda inte alltid vinner...

Det är därför det är fult av AMD att visa resultat i DX12 tycker jag...

Fult som i att visa upp ett kort vars temperaturer var begränsade av antingen 100% fan speed eller v-sync? Det är inget direkt fel att visa DX12 benchmarks då DX12 är det som vi kommer att se mer av framöver, att däremot stå och skryta över temperaturer som inte alls speglar verkligheten gällande ett kort är något Nvidia ägnar sig åt.

Förstår verkligen inte mig på ditt snack.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Medlem
Skrivet av PalmiNio:

Vad är fult med DX12?

Ska man köra retro och visa DX10 och köra lite vintage vibbar? Kanske börja benchmarka mot Far Cry 1 igen?

DX12 är ett API som kommer komam mer och mer, det är den bittra sanningen. Kommer det bli lika stort som DX11? Tror själv inte det men då marknaden bara har 2 stora API:er för grafik och Windows fortfarande är största plattformen så kan du vara ganska säker att DX12 kommer bli större snabbt.

"Det är bara inom DX12 det är väldigt konstiga resultat, där potentiell prestanda inte alltid vinner..."

Vad är det för konstig formulering? Om du har bättre prestanda i ett DX12 spel än ett annat kort så har du väl bättre prestanda i spelet än ett annat?

Man kan visa i DX12 helt klart, men man måste visa i DX11 också då tycker jag...

Vad jag menar är att ett kort med lägre rå styrka kan vinna över ett kort med högre rå styrka i DX12, vilket visar att den som vinner har optimerat det bättre för DX12, men det säger inte väldigt mycket om hårdvaran.

DX12 är fortfarande väldigt sällsynt, och även om det kommer mer spel som använder det, så är det ändå väldigt tidigt inom den fronten.

Jag stoppar ingen från att köpa ett kort som är mer optimerat, men själv håller jag mig hellre till DX11 och väntar på bättre optimering och får ut mer prestanda, än att välja det sämre kortet bara för att den är mer optimerad för väldigt specifika spel just nu

EDIT: Säger inte att Nvidia gör allting rätt... Jag är ingen Nvidia fanboy, har knappt ägt något Nvidia kort faktiskt

Permalänk
Medlem

@Daark:

Principiellt borde det vara lättare att höja frekvensen på ett kort som är lägre klockat i grunden.

Visa signatur

Hårdvaru och mjukvaru intresserad

Permalänk
Hjälpsam
Skrivet av ggalaxyy:

Prata för dig själv!


Försöker övertyga mig själv.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare
Skrivet av Snubb1:

Jag väljer att skriva multigpu istället för MDA då det är enklare när man talar generellt om både Vulkan och DX12.
Multigpu-stödet är en enorm skillnad från tidigare och det kan delas många resurser mellan både fysiska och logiska multipla grafikkort.
Minnesdelningen mellan kort fanns redan i mantle (grOpenPeerMemory) men tror inte det kommit in i vulkan än men det kommer.
Med det nya grafik API:erna så finns det en helt annan frihet för hur de olika korten ska användas och vilka jobb som ska utföras på varje kort.
Allt detta ligger på utvecklaren av applikationen hur och vad de väljer att implementera.

Peer memory i Mantle, som även verkar finnas i Vulkan, är inte samma sak som att GPUerna direkt kan adressera varandras VRAM, Mantel manualen att man endast ska använda "peer memory" som destination för minneskopieringar

"Peer memory objects have some limitations. They cannot have priority changed, cannot be mapped, and they shouldn’t be used for virtual allocation remapping. They should only be used as a destination for memory transfers."

Det som verkar vara helt nytt med just LDA är att två GPUer kan spänna upp en adressrymd som är summan av VRAM, rätt snarlikt hur multisocket CPUer fungerar. Naturligtvis kommer det vara högre latens att läsa/skriva icke-lokalt RAM, men det var också en av anledningarna som pekades ut varför man dels endast stödjer two-way SLI i Pascal, den andra och i sammanhanget viktigare orsaken är att en explicit brygga mellan korten ger lägre samt mer förutsägbar latens än att gå över PCIe.

Problemet i multisocket system är ytterst sällan bandbredd, problemet man har med NUMA är nästan alltid den höga latensen att jobba mot icke-lokalt RAM. Så är inte övertygad om att LDA Implicit kommer fungera bra, men man ska inte döma ut det direkt.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Hevin:

Man kan visa i DX12 helt klart, men man måste visa i DX11 också då tycker jag...

Vad jag menar är att ett kort med lägre rå styrka kan vinna över ett kort med högre rå styrka i DX12, vilket visar att den som vinner har optimerat det bättre för DX12, men det säger inte väldigt mycket om hårdvaran.

DX12 är fortfarande väldigt sällsynt, och även om det kommer mer spel som använder det, så är det ändå väldigt tidigt inom den fronten.

Jag stoppar ingen från att köpa ett kort som är mer optimerat, men själv håller jag mig hellre till DX11 och väntar på bättre optimering och får ut mer prestanda, än att välja det sämre kortet bara för att den är mer optimerad för väldigt specifika spel just nu

EDIT: Säger inte att Nvidia gör allting rätt... Jag är ingen Nvidia fanboy, har knappt ägt något Nvidia kort faktiskt

Du inser väl att du kommer få DX 11 resultat också?

Du får det att framstå som de har förbjudit det?

Precis som nVidia så tar man godiset i skålen vid presentationen sen sätter man en NDA på benchmarks som kommer senare. Så vad är skillnaden? nVidia valde att vis syntetiska tester och Doom?

Du kommer få se benchmarks i alla dess former den 29:e Juni för Radeon 480

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem
Skrivet av Hevin:

Jo det gör dom, men vi har tester på 1080 och 1070 redan, och de presterar bra överlag. Det är bara inom DX12 det är väldigt konstiga resultat, där potentiell prestanda inte alltid vinner...

Det är därför det är fult av AMD att visa resultat i DX12 tycker jag...

Det är snarare så att den potentiella prestandan kan utnyttjas bättre i DX12/Vulkan.
DX12 och Vulkan låter utvecklaren utnyttja hårdvaran mycket bättre än tidigare grafik API.
Med den nya generationens grafik API påverkar utvecklaren och hårdvaran mer än optimerade drivrutiner.

Permalänk
Inaktiv

Gääääääääääääääääsp! ända tills att vi får se några reviews men lanseringen är ju en hel månad bort så det lär dröja.

Permalänk
Medlem

Ta alla dessa "presskonferens-siffror" med en stor nypa salt. Bara kolla på när nvidia demade 1080, där dom körde ett founders edition kort i över 2,1 GHz som "inte var cherry picked" och som låg bara på 67 Celsius.

Och nu när vi har sanningen i handen så kan inte ens somliga eftermarknads kort komma över 2 GHz...

Permalänk

Borde väl vara bättre än mitt 4870 antar jag.
Man lirar ju inte så mycket längre, men detta såg ju ut som kanske nån prestanda för en hyfsad peng åtminstone.

Vill ju inte lägga ut för mycket

Visa signatur

Core i5-6600K, 2x8GB Vengeance LPX 2666MHz, Z170 Pro gaming, MSI 760GTX

Permalänk
Inaktiv
Skrivet av Snubb1:

Att vi kommer få se flera GPU:er som samspelar inom en snar framtid är inget magiskt förutseende utan en naturlig utveckling som får en extra spark tack vare VR.

Grejen är att det kan bli vanligare. Hittar lösningen in i spelkonsollerna så kan utvecklingen ta fart rejält även på PC. Från att ha varit en nischad del av entusiastmarknaden på PC till något man ser i fler, kanske alla produktsegment.

Kan man få priset bra nog att lösningar med två (eller fler) svagare och billiga GPUer istället för en starkare och dyrare GPU så är det nog möjligt. Speciellt om man kan få dessa GPUer att arbeta bra ihop och dela upp arbetet. Är ett ganska stort steg mot hur CF/SLI med främst AFR fungerat.

Mer prestanda behövs. Som jag ser det är vi på gränsen där CPUerna var förra årtiondet där man började gå från en kärna till två men för GPU går mot designer där mer än en GPU används. VR kräver prestanda och för att hålla rimlig förbrukning så kan det vara vad Sony behöver använda i nya PS4.

Att AMD fokuserat på mellansegmentet är ganska självklart med tanke på alla företag som väntar på nya kretsar. Trist som entusiast dock.

Mer DX12 och Vulkan till folket!

Skickades från m.sweclockers.com

Permalänk
Medlem

Tja, detta var väl sådär intressant, indikerar mot att 480 kanske eventuellt hamnar rätt prestandamässigt. Priset är dock onekligen attraktivt, jag lägger personligen inte mer än 2500-3000:- på ett grafikkort.
Väntar på att riktiga tester kommer ut på denna och framförallt på 480X som jag eg. är mest nyfiken på.

Ser ut som en lovande GPU-sensommar/höst, där AMD och nVidia kan kriga vidare på riktigt.

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|