Permalänk
Medlem

SemiAccurate har testat förbrukning med fler skärmar, sammt steamVR.

Imponerande att en extra skärm bara drar 1W extra i idel jämfört med RX580 som drar ca 25W+, riktigt bra för dom som sitter med multi-monitor setups.
StemVR testerna ser också rätt bra ut.
Dom testar även mot Furyx m.m

Länk till hela testet: https://semiaccurate.com/2017/08/14/amds-radeon-rx-vega-56-review/

Permalänk
Avstängd
Skrivet av DST:

Tror oxå det finns en del att hämta från Vega. mena den vattenkylda ligger inte så långt ifrån 1080ti när man kollar på vissa recensioner å man får se real time fpsen i hörnen.
Men frågan hur mycket å varför ska någon behöva vänta på denna prestanda boost. AMDs problem är att de har alltid svårt att prestera optimalt från dag1.

det är inte problem för mig då jag försöker bygga system som klarar sig i runt 5 år och jag hade valt att inte uppgradera förens zen2 om det inte vore för att jag stöd köper AMD då Ryzen vart över förväntan för min del.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av _Merc_:

vilket bara gör det ännu mer sorgligt att AMD inte säljer bäst.

Folk försöker nog köpa AMD så gott dom kan, men korten är oftast svåra att få tag på, slut på lagret verkar vara mer regel än undantag. Man kan ha synpunkter på dom bakomliggande orsakerna, men det blir inte många kort sålda på det viset.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Datavetare
Skrivet av Enigma:

Gjorde tidigare en uppskattning/beräkning på vad jag trodde om Vega. Dels rent tekniskt/arkitektoniskt, men också lite mer realistiskt sett kring vad AMD måste möta idag. nVidia's ess ligger i TSMC's 16nm process som låter dom köra såpass hög frekvens medans AMD's arkitektur inte alls klockar som förväntat på nuvarande 14nm utan att eskalera i effektkonsumption. TSMC's process låter nvidia klocka sina GPU'er i betydligt högre frekvens och med kretsar skräddarsydda för ren FP32 och DX11 som dom är så är det inte så konstigt att dom skiner. AMD är dock tvungna att använda samma GPU till alla segment, och där får man ändå säga att dom lyckats ganska bra. Det sitter vansinnigt mycket funktionalitet i Vega 10 i förhållande till hur stor den är. Vi har mycket GPGPU funktionalitet i alla streamprocessorer med många nya instruktioner, ECC stöd på HBM2 minnet, infinity fabric, stora cacher och mer FP64/FP16 kapacitet än GP102/104.

Potentialen har vi än så länge absolut inte fått se då många funktioner inte används än (delvis upp till drivrutinerna, men också utvecklarna att lägga in stöd för). Man får dock tänka på att framtiden ser ljus ut då alla konsolspel som är på väg från och med nu kommer rulla väldigt fint på Vega och Vulkan (och DX12 även om jag inte är ett fan av just DX12).

Till problemen som jag beskrev ovan så pressar AMD frekvenserna och spänning för mycket på Vega vilket ger på tok för dålig prestanda/w. Inget som en entusiast som jag bryr mig om då jag ändå ska köra vattenkylt och mjölka ur allt ur kortet, men till den större skaran så hade man kanske velat se lite större marginaler från fabrik, där AMD istället skulle lagt Vega på en sweetspot och där användaren i så fall kan skicka på dom sista 100-200MHz. Problemet är som sagt att det är ett avancerat därmed dyrt kort att tillverka och man måste ta betalt för det vilket för att folk förväntar sig hög prestanda och man därav väljer att skicka på frekvenserna uppåt trots att det egentligen finns mängder med kapacitet som ännu inte är nyttjad.

Det jag är mest förundrad över är hur Vega presterar just nu dock. Vega är absolut inget dålig GPU trots en skakig release och mycket kvar att blomstra upp med, och det är prisattraktivt även för 6000kr, men det presterar fruktansvärt dåligt sett till vad det egentligen borde. Det har alla arkitektoniska styrkor som Fiji XT/Fury X har, fast bättre. Ett Fury X i samma frekvens (vi såg att Fury X i ~1300-1400MHz låg likt med GTX 1080) hade totalt mosat dessa resultat som vi ser idag. Tänk ett Fury X i 1600MHz+. Det är något som inte stämmer här, speciellt inte när man sett fall där Fury X tom presterat bättre än Vega 56 i enstaka tester i vissa recensioner. Detta måste, och är troligtvis relaterat till buggar. Vi ser också oförväntat låg kapacitet i mining, men jag tror samma sak här att detta kommer öka stort. Ryktena om 70-100MH/s är att ta i, men jag har sett dom som rapporterat om en nära dubblering från nominella ~30+MH/s.

Bortsett från detta så har Vega också en hel rad med nya funktioner som drastiskt kan öka prestanda som vi ännu inte fått se som jag skrev lite i början om. ID och Bethesda är inga småbåtar direkt och dom verkar ju jobba hårt för att implementera in stöd för samtliga av dessa funktioner. Titeln Wolfenstein II sägs ha stöd "för det mesta". Då vet jag inte om det gäller Vegaspecifika FP16 (RPM), primitive shaders och DSBR samt övriga nya instruktioner, utan kanske gäller utökningar som vi ser i befintliga CGN som Vega garanterat kommer få stor boost utav också (SIF och async compute).

Jag har alltid i många år nu fått skäll när jag sagt att drivrutiner tar ikapp väldigt mycket på AMD korten och har haft rätt varje gång. Vega kommer snabbt att bli snabbare, men frågan är hur mycket snabbare. Det har definitivt potential att ta in på 1080Ti (beroende på titel) om man kan nyttja arkitekturen och lösa en del buggar/ologiska underpresteringar som vi ser nu. 1080Ti är ett våldsamt snabbt spelkort och till 99% ägnat till att skina i FP32/DX11, och gör sig tom ganska bra i DX12 för att den statiska partitioneringen straffar 1080TI mindre med såpass många fler beräkningsenheter än 1080/1070. Det är tufft, men Vega är nog ändå en extremt bra investering precis som jag misstänkte om 7970/290 korten när dom kom.

Partnerkorten av Vega är ju på gång och förhoppningsvis så gör AMD lite bättre vinst på dessa då PCB'n och VRM är lite väl state of the art på referenskorten, likaså kylaren är faktiskt av bra kvalité (borstlös deltafläkt med tung kopparångkammarkylfläns). Dock inte tillräckligt för att köra Vega under full kräm. Testa dock med power saving mode, där man tappar kanske 5-10% men minskar strömåtgång/ljudnivå stort. Även att undervolta kortet gör mirakel.

Ska väl sägas att Vega 56 är ett rent kap.

Vega 64 med EK vattenblock här iaf. Nu läggs 1080Ti på hyllan.

Fast om man tittar på RX480 vs 1060/1080 så är ju relativ prestanda enligt prestandaindex inom några enstaka procent samma idag som det var vid lansering av dessa kort. Kan ju naturligtvis vara så att Pascal fått en stor boost, fast relativ prestanda mellan 1080 och 980Ti är också inom någon procentenhet samma nu och då.

Så hur mycket boost har egentligen drivers gett? Framförallt mot bakgrund att Hardware Unboxed nyligen visade att de nästan 10 % som skilde deras resultat från AnandTechs resultat vid testing av Vega64 helt kunde förklaras av skillnader i vilka speltitlar som testades. Så prestanda förändringar <10 % kan lika gärna komma från val av speltitlar än från drivers, skillnaden från när 1000-serien och 400-serien lanserades är väsentligt under 10 % (med SweC prestanda index som mall).

Vad det gäller Ethereum mining borde väl ändå all din research ändå talat om att ~60 MH/s är teoretiskt max (när Vega64 har minnet på standardfrekvens), borde väl vara rätt uppenbart att rapporter som hävdar >60 MH/s är "fake news" (är realistiskt att nå kanske ~90 % av max som absolut bäst, det är ungefär för Polaris når med GDDR5 så 60 MH/s är kanske inte omöjligt med hyfsad HBM2-overclock).

Ethereum-mining är inte ett beräkningsmässigt hårt problem, det är "by design" ett bandbreddsbegränsat problem just för att man inte enkelt skulle kunna bygga ASICs.

Jämför man prestandaindex för Fury X och Vega 64 är den senare ~30 % snabbare, det med ~20 % högre basfrekvens och ca 45 % högre boost frekvens. Nu nämndes att Vega64 inte riktigt fixade att hålla sin boostfrekvens under SweClockers testning, men håller med att det borde vara större skillnad. Nu presterar Vega10 väldigt mycket som en högre klockad Fury X.

Det man ändå måste komma ihåg att Fury X har något högre bandbredd (i praktiken), så lägen där bandbredd

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av DST:

(fetmarkerad tex i ditt svar)Fast nu trollar du jue
Inte alls så jag mena å det visste du jue, hoppas jag att du gjorde iaf. För jag tycker inte jag behöver en uppläxning i hur hårdvara fungerar. Jag menade ju att bitbussen X frekvensen = bandbredd. Sen är det ju inte alltid så att en bredare minnesbuss resulterar i högre prestanda. Så som jag tolkat det så har ex smala bussar med höga minnesfrekvenser räckt mer än väl till i låga upplösningar vid höga fps, medans breda bussar passare bättre för höga upplösningar. Det har vi ex sätt många gånger när det gäller AMD vs Nvidia. Å ex 1060 vs säg 390x eller tom fiji med sina hbm. Olika gpuer visst men banbredd är alltid viktigt för en gpu ändå ser vi dessa skillnader när 1060/polaris presterar bättre än fiji i låga upplösningar.

Kortfattat, det jag vill säga att det finns situationer där bredare buss lämpar sig bättre å vid andra att frekvensen på minnena är bättre. Inte som du försöker förvränga det till...

Ursäkta? Jag trollar ingenting. vad vill du säga med fetmarkeringen? Det är en fullkomligt logisk och solklar mening. Har du mer bandbredd än du kan utnyttja så kommer du inte få högre prestanda om du ökar bandbredden. Det är så enkelt. Precis som att du inte har nytta av 16GB RAM i en dator som bara kan adressera 4GB. Kan du inte utnyttja mer RAM så hjälper det inte att lägga till mer RAM. Solklart. Samma med bandbredd. Oavsett om du ökar bandbredd genom frekvens eller bitbredd så kommer du inte tjäna på att öka bandbredden om du inte kan utnyttja det.
Om Vega som du hypotiserar inte kan utnyttja sin bandbredd så spelar det ingen roll om du ökar frekvenserna, det enda som händer är att du ökar bandbredden.
Och du får ursäkta om du känner att jag läxar upp dig, men det känns som att du inte begriper ens grunden för det du diskuterar. Och nej, ett kort klarar inte lägre upplösningar snabbare för att det har sämre bandbredd. Det är fullkomligt ologiskt. Anledningen till att korten har låg bitbredd är för att svagare kort inte behöver lika mycket bandbredd. Och du sparar inga pengar på att sänka bandbredden med frekvenser. Däremot sparar du pengar på minneskapslar, PCB och på kretsyta ifall du sänker bandbredden genom att minska bitbredd. Alltså, att 1060 har lägre bitbredd än 1080TI är för att hålla kostnaderna nere. Inte för att 1060 skulle bli snabbare i lägre upplösningar om du minskar bandbredden, för det blir det inte.

Som sagt, det enda som spelar roll är i vilken hastighet minnet kan skyffla data (bandbredd) och hur snabbt ett data börjar flöda efter att det efterfrågats (latens). Om ett kort inte kan använda bandbredden som det har så kan du öka frekvens (därmed bandbredd) hur mycket du vill, det kommer inte ge högre prestanda. Det du eventuellt kan fixa är latens, men det är inte alls viktigt på samma sätt som för processorer, och det kan du fixa med timings.

Permalänk
Medlem
Skrivet av Yoshman:

Fast om man tittar på RX480 vs 1060/1080 så är ju relativ prestanda enligt prestandaindex inom några enstaka procent samma idag som det var vid lansering av dessa kort. Kan ju naturligtvis vara så att Pascal fått en stor boost, fast relativ prestanda mellan 1080 och 980Ti är också inom någon procentenhet samma nu och då.

Polaris är ju en GCN arkitektur den också så den har ju redan fått med sig mycket av det man ordnat i drivarna sedan 290 serien kom. Pascal har haft betydligt mer att tjäna, speciellt då den inte varit lika handikappad i DX12/Vulkan. Jag var dock väldigt specifik vilka GPU'er det handlade om (680, 7970, 780 och 290 serien) där Vega är ny gen och där bl.a FP16, DBSR, primitive shaders osv är rena prestandafunktioner som det i spel kommer att implementeras stöd för. DBSR har inte varit aktivt varken i FE eller nuvarande vega så vitt jag vet. Ensamt ger det stora prestandavinster på nvidia's GPU'er.

Citat:

Så hur mycket boost har egentligen drivers gett? Framförallt mot bakgrund att Hardware Unboxed nyligen visade att de nästan 10 % som skilde deras resultat från AnandTechs resultat vid testing av Vega64 helt kunde förklaras av skillnader i vilka speltitlar som testades. Så prestanda förändringar <10 % kan lika gärna komma från val av speltitlar än från drivers, skillnaden från när 1000-serien och 400-serien lanserades är väsentligt under 10 % (med SweC prestanda index som mall).

Jag har i dom flesta fall försökt kika på större speltitlar eller helt enkelt dom som va aktuella då och ser hur situationen ser ut idag. Jag har ju sett detta fenomen så många gånger man läst diagram och skummat igenom men visst kan jag lägga ner tid på att hitta siffror om det finns anledning att misstro det jag skrev. Jag tror att dom som köpte både 680 och 780 förstår mer än precis vad jag menar

Citat:

Vad det gäller Ethereum mining borde väl ändå all din research ändå talat om att ~60 MH/s är teoretiskt max (när Vega64 har minnet på standardfrekvens), borde väl vara rätt uppenbart att rapporter som hävdar >60 MH/s är "fake news" (är realistiskt att nå kanske ~90 % av max som absolut bäst, det är ungefär för Polaris når med GDDR5 så 60 MH/s är kanske inte omöjligt med hyfsad HBM2-overclock).

Ethereum-mining är inte ett beräkningsmässigt hårt problem, det är "by design" ett bandbreddsbegränsat problem just för att man inte enkelt skulle kunna bygga ASICs.

Jag är glad om man når 60MH/s. Jag hade väl inledningsvis räknat med 45MH/s och kanske 55MH/s optimerat, men vi får väl se. Det är ju som vi bägge kan konstatera kul men svårt att estimera konkret prestanda baserat på det du skrev här under:

Citat:

Jämför man prestandaindex för Fury X och Vega 64 är den senare ~30 % snabbare, det med ~20 % högre basfrekvens och ca 45 % högre boost frekvens. Nu nämndes att Vega64 inte riktigt fixade att hålla sin boostfrekvens under SweClockers testning, men håller med att det borde vara större skillnad. Nu presterar Vega10 väldigt mycket som en högre klockad Fury X.

Det man ändå måste komma ihåg att Fury X har något högre bandbredd (i praktiken), så lägen där bandbredd

Med hänsyn till både liten avsaknad i ren bandbredd (utan att ta hänsyn till övrig cache och minneshantering i Vega) samt något underklockade resultat så är det fortfarande på tok för låga resultat i samma typ av operationer. Ett Vega 56 ska omöjligen kunna vara långsammare än ett Fury X. Samtidigt så har jag sett Vega pressa samma min-fps som Titan X i vissa fall. Det känns som att drivaren är fruktansvärt omogen (värre än vad dom vart i tidigare GCN lanseringar). Man kan ta det för vad det är, ett konkurrenskraftigt kort till priset med potential för att bli lite/mycket snabbare beroende på drivers/kommande titlar som kan använda Vega specifika funktioner/ISA's, men jag hade förväntat mig minst 20-30% högre prestanda. Något som verkligen inte stämmer. Enorma förluster någonstans som jag undrar är arkitektoniska eller inte.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem

Newegg har nya RX64 priser, motsvarande 7000kr för vanliga RX64 air och 8000kr för liquid edition.

Bra där, typ sämsta pris/prestanda som finns. Tror inte ens det är värt att vänta på partner kort, kommer kosta lika mycket som 1080Ti...

Permalänk
Medlem
Skrivet av Bascule666:

Det var verkligen ett nosvar, vilket innebär att du svarade inte på en enda fråga i tråden.
Varför blanda in GTX 1080Ti, jag har inte ens nämnt det i inläggen. Det finns säkert över 200 Freesyncc skärmar men hur många är värda att köpa, de flesta är skräp.

Du börjar låta lite halvt defensiv, vadan detta, är inte det 100% förtroendet lika självklart längre?

Freesync ska vad jag minns in som en standard i nya hdmi standarden 2.1. Effektivt dödande av g-sync

Skickades från m.sweclockers.com

Permalänk
Avstängd
Skrivet av the squonk:

Folk försöker nog köpa AMD så gott dom kan, men korten är oftast svåra att få tag på, slut på lagret verkar vara mer regel än undantag. Man kan ha synpunkter på dom bakomliggande orsakerna, men det blir inte många kort sålda på det viset.

fast 90% av alla som köper nvidia säger till mig de köper dem för att de alltid har gjort det och försvarar sig med ursäkter om bättre prestanda och en mer premium känsla etc. Vilket har fått mig att inse att den stora massan lider av enorm okunskap och märkesfixering.

Skickades från m.sweclockers.com

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Hjälpsam
Skrivet av jmeistr:

Har knappt hunnit testa kortet, men här kommer lite intryck:

*Själva byggkvalitén är bättre än jag trodde då kylaren etc. i huvudsak är tillverkat i metall.

*Ljudnivån är väl i klass med 1080 FE, positiv överraskning då jag väntade mig "Leaf blower from hell" (Kortet är fortfarande högljutt dock)

*Maxtemp efter 30min i BF1 var 85°C med Balanced mode (Kommer skaffa ett vattenblock)

*Enda drivrutinen jag hittade var en i beta-stadiet (Program som Firestrike kunde inte identifiera kortet)

Blir att testa mer imorgon.

Testa "Powersave mode" eller vad det nu heter.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

Testa "Powersave mode" eller vad det nu heter.

Har tänkt göra det och jämföra förbrukning, temp etc.

Permalänk
Hjälpsam
Skrivet av jmeistr:

Har tänkt göra det och jämföra förbrukning, temp etc.

Ha det så kul
Mitt beräknas komma 25:e, tyvärr hinner det nog inte komma hem till mig före nästa helg.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Jag ställer mig till skaran som är skeptiska till AMD:s grafikavdelning. Lanseringen av Vega har varit katastrofal. De har medveten vilselett både recensenter och konsumenter genom den direkta höjningen av det aviserade priset, väldigt begränsad tillgång trots lovord om annat och hela marknadsföringskedjan under året. Att kortet ändå kommer så pass sent trodde jag personligen berodde på att de behövde mer tid för att finslipa drivrutinerna men bristen på hårdvara, speciellt hos partnertillverkarna, tyder på att det finns fler orsaker.

Vega-kortet i sig är inte ett dåligt kort. Problemet är att Nvidia ligger så pass långt före just nu. Som tidigare nämnt så har detta lett till att AMD har känt sig tvungna att pressa frekvenserna till nära max med hög effektåtgång till följd, likt Polaris. Kortet är helt klart bättre om man skruvar tillbaka det lite men då skulle det halka efter i prestandagraferna ytterligare så jag antar att det är den avvägningen AMD:s ledning har gjort.

Vega kommer även på tok för sent. AMD måste sitta och hoppas på att lanseringen av Volta drar ut på tiden. Om historien upprepar sig så kommer GTX 2070, eller vad det nu kommer att heta, prestera i klass med dagens 1080ti. (970 ~ 780ti, 1070 ~ 980ti). Det till ett pris runt $400. Det är inte så kul för AMD att behöva sälja en krets på 484m2 och HBM2-minnen för under det. Något de nu nästan tvingas göra med Vega 56. Nvidia har dock inte tidigare visat några tendenser på att sakta ner...

Vega drar paralleller med Nvidias lansering av Fermi-korten. Fast denna gång utan att ta prestandakronan (singel-gpu). Ett strömtörstigt kort, bra beräkningskraft och tvingat till ett högre pris tack vare detta.

Permalänk
Datavetare
Skrivet av Enigma:

Polaris är ju en GCN arkitektur den också så den har ju redan fått med sig mycket av det man ordnat i drivarna sedan 290 serien kom. Pascal har haft betydligt mer att tjäna, speciellt då den inte varit lika handikappad i DX12/Vulkan. Jag var dock väldigt specifik vilka GPU'er det handlade om (680, 7970, 780 och 290 serien) där Vega är ny gen och där bl.a FP16, DBSR, primitive shaders osv är rena prestandafunktioner som det i spel kommer att implementeras stöd för. DBSR har inte varit aktivt varken i FE eller nuvarande vega så vitt jag vet. Ensamt ger det stora prestandavinster på nvidia's GPU'er.

Du hade ju läst "Vega" Instruction Set Architecture enligt tidigare inlägg, hur har du då helt missat att Vega är GCN5? Från första kapitlet

"The figure below shows a block diagram of the AMD GCN Vega Generation series processors"

Och även om man inte läst detta dokument utan bara följt med i nyhetsflödet borde det vara uppenbart att Vega är i det närmaste identisk med GCN3/4, initialt körde man enligt uppgift Vega på Fury drivarna vilket vore omöjligt om de hade olika ISA. (GCN3 är Fury och GCN4 är Polaris, de är ISA-identiska men skiljer sig till viss del i mikroarkitektur).

ISA-mässigt är GCN5 är till väldigt nära 100 % en utökning av av ISA i GCN3/4. Tydligen börjar man få ont om plats för opkoder så vissa instruktioner som i princip aldrig används har tagits bort för att ge plats för nya. På det stora hela är ISA för GCN4->GCN5 identisk med Maxwell->Pascal.

Så samma ISA men man har i det senare fallet lagt till stöd för FP16 i form av packed-math (d.v.s. man har inga 16-bitars register utan FP16 kräver att man packar in två 16-bitars tal i ett 32-bitars register, något mer komplicerat att använda än "fullt" FP16 stöd men kräver mindre transistorer att implementera).

Skrivet av Enigma:

Jag har i dom flesta fall försökt kika på större speltitlar eller helt enkelt dom som va aktuella då och ser hur situationen ser ut idag. Jag har ju sett detta fenomen så många gånger man läst diagram och skummat igenom men visst kan jag lägga ner tid på att hitta siffror om det finns anledning att misstro det jag skrev. Jag tror att dom som köpte både 680 och 780 förstår mer än precis vad jag menar

Vilket än mer visar att det är sanning med en hel del modifikation att AMDs drivers blivit så mycket bättre. Dels är det egentligen bara efter övergången från VLIW till GCN som det blivit några stora vinster från drivers då de ursprungliga GCN-drivarna var allt annat än optimerade.

Vidare är det ingen hemlighet att riktningen tekniken i spelmotorer tog när de GCN-baserade konsolerna lanserades passade Kepler väldigt illa. Nu har jag glömt vem som gjorde testet, men finns ju en jämförelse av utvecklingen mellan GCN och Kepler drivarna där man testade exakt samma uppsättning spel. Slutsatsen där var att båda kretsarna såg ungefär samma förbättring på ~10 %.

Så förbättringarna för GCN har egentligen inte kommit från drivare och dessa förbättringar finns bara i någon statisk relevant magnitud när man jämför mot Kepler, orsaken är dock att de renderingstekniker som används passar Kepler extra dåligt.

Skrivet av Enigma:

Jag är glad om man når 60MH/s. Jag hade väl inledningsvis räknat med 45MH/s och kanske 55MH/s optimerat, men vi får väl se. Det är ju som vi bägge kan konstatera kul men svårt att estimera konkret prestanda baserat på det du skrev här under:

Med hänsyn till både liten avsaknad i ren bandbredd (utan att ta hänsyn till övrig cache och minneshantering i Vega) samt något underklockade resultat så är det fortfarande på tok för låga resultat i samma typ av operationer. Ett Vega 56 ska omöjligen kunna vara långsammare än ett Fury X. Samtidigt så har jag sett Vega pressa samma min-fps som Titan X i vissa fall. Det känns som att drivaren är fruktansvärt omogen (värre än vad dom vart i tidigare GCN lanseringar). Man kan ta det för vad det är, ett konkurrenskraftigt kort till priset med potential för att bli lite/mycket snabbare beroende på drivers/kommande titlar som kan använda Vega specifika funktioner/ISA's, men jag hade förväntat mig minst 20-30% högre prestanda. Något som verkligen inte stämmer. Enorma förluster någonstans som jag undrar är arkitektoniska eller inte.

Läs AMDs whitepaper om Vega, läs specifikt vad som skrivs om "peak kapacitet" på olika operationer. Undantaget kapacitet för antal fragment som kan hanteras per tidsenhet är kapaciteten per klockcykel identisk för Vega och Fury X, så varför ska man förvänta sig något annat än prestanda motsvarande en högre klockad Fury X?

Just kapacitet för fragmentshaders är extra intressant. Peak kapaciteten är högre tack vare bättre mikroarkitekturdesign (större L2 och man har organiserat den annorlunda). Men detta är också det steg som om någon del blir begränsat av bandbredd så är det detta, "sustained capacity" är ju något lägre i Vega 64 jämfört med Fury X p.g.a. något lägre bandbredd mot VRAM.

Vega kan vara mer effektiv jämfört med tidigare GCN, men det kräver att man explicit designat sin titel så den nyttjar "primitive shaders". Hur många spel tror du kommer använda det inom överskådlig tid då det inte stöds av något annat än Vega? (D.v.s. det stöds inte av något Nvidia-kort och inte av någon konsol, XboxX är Polaris-baserad så GCN4).

En sista väldigt viktig sak att suga i sig från Vegas whitepaper. Lär hur man fått designat om kretsen för att nå högre frekvenser (något Nvidia också fick göra i Pascal). Man har fått prioritera vissa specifika delar som fysiskt designats om så signalvägarna kortats, i andra delar har man fått lägga till pipeline-steg -> högre latens -> något lägre IPC allt annat lika.

Allt detta sammantaget: hur kan det förvåna någon om Vega presterar som ett högre klockad Fury X? Så länge FP16 och "primitive shaders" inte används är Vega (väldigt förenklat) ett högre klockad Fury X med något längre pipeline! Precis som Pascal är ett högre klockat Maxwell (och Pascal lär också ha längre pipeline) så länge man inte kör VR (bättre stöd för timewarp) eller "async shaders med parallell dispatch" (statiskt partitionering i Maxwell vilket gör det nära nog hopplöst att vinna något, dynamisk partitionering i Pascal).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Moderator
Testpilot

Är det verkligen värt all ilska över en elektronisk produkt? Det blir inte någon av er som "vinner" argumentationen. Det är väl mer konstruktivt att objektivt diskutera dom fakta som finns. Prishöjningar är t.ex. än så länge obekräftade men verkar vara sanna igenom rabatter.

Skickades från m.sweclockers.com

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Avstängd
Skrivet av Enigma:

Polaris är ju en GCN arkitektur den också så den har ju redan fått med sig mycket av det man ordnat i drivarna sedan 290 serien kom. Pascal har haft betydligt mer att tjäna, speciellt då den inte varit lika handikappad i DX12/Vulkan. Jag var dock väldigt specifik vilka GPU'er det handlade om (680, 7970, 780 och 290 serien) där Vega är ny gen och där bl.a FP16, DBSR, primitive shaders osv är rena prestandafunktioner som det i spel kommer att implementeras stöd för. DBSR har inte varit aktivt varken i FE eller nuvarande vega så vitt jag vet. Ensamt ger det stora prestandavinster på nvidia's GPU'er.

Jag har i dom flesta fall försökt kika på större speltitlar eller helt enkelt dom som va aktuella då och ser hur situationen ser ut idag. Jag har ju sett detta fenomen så många gånger man läst diagram och skummat igenom men visst kan jag lägga ner tid på att hitta siffror om det finns anledning att misstro det jag skrev. Jag tror att dom som köpte både 680 och 780 förstår mer än precis vad jag menar

Jag är glad om man når 60MH/s. Jag hade väl inledningsvis räknat med 45MH/s och kanske 55MH/s optimerat, men vi får väl se. Det är ju som vi bägge kan konstatera kul men svårt att estimera konkret prestanda baserat på det du skrev här under:

Med hänsyn till både liten avsaknad i ren bandbredd (utan att ta hänsyn till övrig cache och minneshantering i Vega) samt något underklockade resultat så är det fortfarande på tok för låga resultat i samma typ av operationer. Ett Vega 56 ska omöjligen kunna vara långsammare än ett Fury X. Samtidigt så har jag sett Vega pressa samma min-fps som Titan X i vissa fall. Det känns som att drivaren är fruktansvärt omogen (värre än vad dom vart i tidigare GCN lanseringar). Man kan ta det för vad det är, ett konkurrenskraftigt kort till priset med potential för att bli lite/mycket snabbare beroende på drivers/kommande titlar som kan använda Vega specifika funktioner/ISA's, men jag hade förväntat mig minst 20-30% högre prestanda. Något som verkligen inte stämmer. Enorma förluster någonstans som jag undrar är arkitektoniska eller inte.

skulle vilja se en jämförelse mellan vega och 1080ti utan AA eller med cmaa.
idagsläget så verkar det intressant

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Avstängd
Skrivet av Flopper:

skulle vilja se en jämförelse mellan vega och 1080ti utan AA eller med cmaa.
idagsläget så verkar det intressant

Finns det någon som vill använda CMAA med vilje? Det är ju lika illa som FXAA.

Sweclockers testade alla utom två spel med TAA så kolla på dom resultaten.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Avstängd
Skrivet av SeF.Typh00n:

Finns det någon som vill använda CMAA med vilje? Det är ju lika illa som FXAA.

Sweclockers testade alla utom två spel med TAA så kolla på dom resultaten.

Vega hålls tillbaka idagsläget, så cmaa eller utan AA
vilket de som spelar fps spel tenderar att ha som inställningar dvs utan AA
engima har båda korten så han kan testa det

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Avstängd
Skrivet av Flopper:

Vega hålls tillbaka idagsläget, så cmaa eller utan AA
vilket de som spelar fps spel tenderar att ha som inställningar dvs utan AA
engima har båda korten så han kan testa det

Men Vega får ingen prestandaförlust av TAA?

GCN har ju varit lite sådär med att hantera MSAA men det är ju inte alls samma sak.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem
Skrivet av Aleshi:

Ursäkta? Jag trollar ingenting. vad vill du säga med fetmarkeringen? Det är en fullkomligt logisk och solklar mening. Har du mer bandbredd än du kan utnyttja så kommer du inte få högre prestanda om du ökar bandbredden. Det är så enkelt. Precis som att du inte har nytta av 16GB RAM i en dator som bara kan adressera 4GB. Kan du inte utnyttja mer RAM så hjälper det inte att lägga till mer RAM. Solklart. Samma med bandbredd. Oavsett om du ökar bandbredd genom frekvens eller bitbredd så kommer du inte tjäna på att öka bandbredden om du inte kan utnyttja det.
Om Vega som du hypotiserar inte kan utnyttja sin bandbredd så spelar det ingen roll om du ökar frekvenserna, det enda som händer är att du ökar bandbredden.
Och du får ursäkta om du känner att jag läxar upp dig, men det känns som att du inte begriper ens grunden för det du diskuterar. Och nej, ett kort klarar inte lägre upplösningar snabbare för att det har sämre bandbredd. Det är fullkomligt ologiskt. Anledningen till att korten har låg bitbredd är för att svagare kort inte behöver lika mycket bandbredd. Och du sparar inga pengar på att sänka bandbredden med frekvenser. Däremot sparar du pengar på minneskapslar, PCB och på kretsyta ifall du sänker bandbredden genom att minska bitbredd. Alltså, att 1060 har lägre bitbredd än 1080TI är för att hålla kostnaderna nere. Inte för att 1060 skulle bli snabbare i lägre upplösningar om du minskar bandbredden, för det blir det inte.

Som sagt, det enda som spelar roll är i vilken hastighet minnet kan skyffla data (bandbredd) och hur snabbt ett data börjar flöda efter att det efterfrågats (latens). Om ett kort inte kan använda bandbredden som det har så kan du öka frekvens (därmed bandbredd) hur mycket du vill, det kommer inte ge högre prestanda. Det du eventuellt kan fixa är latens, men det är inte alls viktigt på samma sätt som för processorer, och det kan du fixa med timings.

Jo jag tycker du trollar dvs förvränger det man säger som in i sjutton, se det fetstilta igen.
När jag tog upp vad jag mena så trodde du att jag mena a bandbredd och bitbredd var samma sak å du försökte läxa upp mig. Du vet la att många här har typ hållt på med HW sen 90talet? Du behöver inte ursäkta dig överhuvudtaget, du behöver inte heller tro att att jag inte begriper grunderna i detta. Å nu så förvränger du det jag sade med när du skriver att ett kort med lägre bandbredd är bättre/snabbare i lägre upplösningar, det är inte det jag eg menar. gå tillbaka till mitt inlägg å läs det igen för det känns som att du inte gjort det. Okey nu vet jag inte om min hjärna börjar go full retard på "äldre dar" men det e inte alls det jag menade å det vet du mycket väl. Det jag menar är att oftast så är ju högre frekvens på minnena att föredra än en bred buss parade med långsammare kretsar(inte det egentliga tot minnesbandbredded) å därför tog jag ex upp 1060/rx480 mot fiji som exempel som faktiskt pga att de har tillgång till snabba minneskretsar trots lägre bussbredd och även om de har lägre bandbredd så visar de sig prestera bättre i flera titlar i låga upplösningar trots att båda 1060/rx480 är mycket svagare gpuer i sig. Men som sagt detta är ett exempel som jag presentera för att framföra min åsikt att höga frekvenser i vissa fall möjligen kan vara att föredra än att välja bred buss + långsamma minnen. Å på det svarar du med att trolla å förvränga...

Nu försöker inte jag vara "elak" eller otrevlig men jag har speedat mig på lite kaffe å vill få dig förstå hur jag har tänkt å påpeka saker som jag tyckte var aningen "konstiga".

Jag är ingen hårdvarokonstruktör men det känns som att det jag säger har lite vikt bakom sig. Jag tvivlar på att bredbussXlångsamma minnen = smalbussXsnabba minnen = alltid samma prestanda trots samma teoretiska bandbredd.

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk

@kelthar:

Oki, när du säger det så...

Permalänk
Medlem

Med tanke på de senaste nyheterna om priserna på Vega så måste man vara extrem AMD-entusiast för att ens överväga ett inköp av ett RX Vega 64.

1. Sämre prestanda jämfört med ett fabriksöverklockat GTX 1080 kort vilket alla är idag.
2. Behöver 120W mer energi för att prestera i närheten av ett GTX 1080.
3. Låter som attan pga. en usel kylare från AMD
4. Dyrare än ett GTX 1080.

Om ni bortser från alla fyra ovanstående punkter och ändå beställer ett RX Vega 64 så har ni nått fanboyheaven.

Visa signatur

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Permalänk
Datavetare

Några kanske kommer ihåg denna bild som postades relativt tidigt i tråden.

Den bilden är ett litet destillat av vad AMD beskriver i detta patent. Någon som vet vad som hände med den tekniken?

Har nu läst de beskrivande delarna av Vegas ISA guide, där står bl.a.

"Conceptually, the kernel is executed independently on every work-item, but in reality the GCN processor groups 64 workitems into a wavefront, which executes the kernel on all 64 work-items in one pass."

Så Vega verkar, precis som alla GCN-kretsar, ha en fixerad bredd på en wavefront om 64 trådar.

En av orsakerna att GCN inte når lika nära sina teoretiska siffror som Nvidia är att 64 trådar delar på en programräknare medan 32 trådar delar programräknare Tesla-ISA (Nvidia har kört samma ISA sedan Tesla, så 200-serien).

Då spel börjar få allt med avancerade algoritmer och allt mer geometri blir en allt för "bred" wavefront/warp (AMDs resp Nvidias namn på en samling trådar som delar programräknare). Är möjligt att hantera villkorad körning där olika trådar inom en wavefront tar olika vägare, det är dock ineffektivt. Från Vegas ISA guide

"This GPU does no optimization when EXEC = 0. The shader hardware executes every instruction, wasting instruction issue bandwidth. Use CBRANCH or VSKIP to rapidly skip over code when it is likely that the EXEC mask is zero."

Sättet man hanterar fallet att någon/några trådar tar en avvikande väg är att GPUn kör alla vägar minst en tråd i en wavefront tar. Sedan sätter man EXEC masken så att instruktionerna bara tar effekt för de trådar som logiskt sett faktiskt borde köra instruktionerna. Så har man detta

if (pred) { foo(); } else { bar(); }

kommer både foo() och bar() köras, det i sekvens då det bara finns en programräknare för alla 64-trådarna. De trådar där pred var sann kör foo() med sin EXEC bit satt till 1 och kör bar() med EXEC satt till 0. För de trådar där pred blev falsk har då EXEC omvänt värde.

Det patentet beskriver är just en teknik för att optimera fallet där EXEC=0 för en större andel av trådarna, här står det specifikt att denna GPU (som då refererar till Vega) inte har någon sådan optimering.

Har man haft problem med denna teknik? Kanske till och med så att det här är förklaringen till förseningen och man fick till slut stänga av detta och skeppa utan. Eller finns annan insikt här och/eller andra spekulationer kring ovan?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd
Skrivet av Yoshman:

Några kanske kommer ihåg denna bild som postades relativt tidigt i tråden.
http://oi64.tinypic.com/2e37pft.jpg
Den bilden är ett litet destillat av vad AMD beskriver i detta patent. Någon som vet vad som hände med den tekniken?

Har nu läst de beskrivande delarna av Vegas ISA guide, där står bl.a.

"Conceptually, the kernel is executed independently on every work-item, but in reality the GCN processor groups 64 workitems into a wavefront, which executes the kernel on all 64 work-items in one pass."

Så Vega verkar, precis som alla GCN-kretsar, ha en fixerad bredd på en wavefront om 64 trådar.

En av orsakerna att GCN inte når lika nära sina teoretiska siffror som Nvidia är att 64 trådar delar på en programräknare medan 32 trådar delar programräknare Tesla-ISA (Nvidia har kört samma ISA sedan Tesla, så 200-serien).

Då spel börjar få allt med avancerade algoritmer och allt mer geometri blir en allt för "bred" wavefront/warp (AMDs resp Nvidias namn på en samling trådar som delar programräknare). Är möjligt att hantera villkorad körning där olika trådar inom en wavefront tar olika vägare, det är dock ineffektivt. Från Vegas ISA guide

"This GPU does no optimization when EXEC = 0. The shader hardware executes every instruction, wasting instruction issue bandwidth. Use CBRANCH or VSKIP to rapidly skip over code when it is likely that the EXEC mask is zero."

Sättet man hanterar fallet att någon/några trådar tar en avvikande väg är att GPUn kör alla vägar minst en tråd i en wavefront tar. Sedan sätter man EXEC masken så att instruktionerna bara tar effekt för de trådar som logiskt sett faktiskt borde köra instruktionerna. Så har man detta

if (pred) { foo(); } else { bar(); }

kommer både foo() och bar() köras, det i sekvens då det bara finns en programräknare för alla 64-trådarna. De trådar där pred var sann kör foo() med sin EXEC bit satt till 1 och kör bar() med EXEC satt till 0. För de trådar där pred blev falsk har då EXEC omvänt värde.

Det patentet beskriver är just en teknik för att optimera fallet där EXEC=0 för en större andel av trådarna, här står det specifikt att denna GPU (som då refererar till Vega) inte har någon sådan optimering.

Har man haft problem med denna teknik? Kanske till och med så att det här är förklaringen till förseningen och man fick till slut stänga av detta och skeppa utan. Eller finns annan insikt här och/eller andra spekulationer kring ovan?

en del funktioner verkar fortfarande vara avstängda, troligen saknas optimering.

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Medlem
Skrivet av DST:

Jo jag tycker du trollar dvs förvränger det man säger som in i sjutton, se det fetstilta igen.
När jag tog upp vad jag mena så trodde du att jag mena a bandbredd och bitbredd var samma sak å du försökte läxa upp mig. Du vet la att många här har typ hållt på med HW sen 90talet? Du behöver inte ursäkta dig överhuvudtaget, du behöver inte heller tro att att jag inte begriper grunderna i detta. Å nu så förvränger du det jag sade med när du skriver att ett kort med lägre bandbredd är bättre/snabbare i lägre upplösningar, det är inte det jag eg menar. gå tillbaka till mitt inlägg å läs det igen för det känns som att du inte gjort det. Okey nu vet jag inte om min hjärna börjar go full retard på "äldre dar" men det e inte alls det jag menade å det vet du mycket väl. Det jag menar är att oftast så är ju högre frekvens på minnena att föredra än en bred buss parade med långsammare kretsar(inte det egentliga tot minnesbandbredded) å därför tog jag ex upp 1060/rx480 mot fiji som exempel som faktiskt pga att de har tillgång till snabba minneskretsar trots lägre bussbredd och även om de har lägre bandbredd så visar de sig prestera bättre i flera titlar i låga upplösningar trots att båda 1060/rx480 är mycket svagare gpuer i sig. Men som sagt detta är ett exempel som jag presentera för att framföra min åsikt att höga frekvenser i vissa fall möjligen kan vara att föredra än att välja bred buss + långsamma minnen. Å på det svarar du med att trolla å förvränga...

Nu försöker inte jag vara "elak" eller otrevlig men jag har speedat mig på lite kaffe å vill få dig förstå hur jag har tänkt å påpeka saker som jag tyckte var aningen "konstiga".

Jag är ingen hårdvarokonstruktör men det känns som att det jag säger har lite vikt bakom sig. Jag tvivlar på att bredbussXlångsamma minnen = smalbussXsnabba minnen = alltid samma prestanda trots samma teoretiska bandbredd.

Men du, om du säger att ett grafikkort inte kan utnyttja sin bitbredd så säger du att det inte kan utnyttja sin bandbredd, fast du tycks inte förstå att det är det du säger. Det är det jag försöker förklara. Det är lite så att det enda sättet ett grafikkort inte kan fylla bitbredden på en buss är att ha riktigt jäkla låg trafik. Om ett kort inte kan efterfråga tillräckligt med data för att fylla sin buss så kommer inte högre frekvenser hjälpa, kortet kommer fortfarande inte fylla sin buss eftersom det har så låg trafik till och från minnet.
I ditt exempel så hänvisar du till ett kort som har lägre bitbredd och bandbredd än Fury X, och säger att detta skulle hjälpa kortet prestera bättre i låga upplösningar. Hur? Och vart är dessa benches?

Det finns som sagt skillnader mellan olika minnestekniker, men med allt annat lika så är färre kanaler med högre frekvens inte snabbare, du kommer bara få lägre bandbredd och därmed lägre prestanda i slutändan eftersom frekvensökningen inte kommer kompensera tillräckligt mycket.

Men vilken aspekt utöver bandbredd och olika latenser tror du spelar roll för en GPU, förklara hur du tror dessa extra aspekter spelar roll och hur de påverkas av frekvenser. Vad har du för bas för ditt påstående? För just nu känns det som att du bara tror detta på grund av en känsla, en känsla baserat på mekaniskt beteende i den fysiska världen då små snabba delkomponenter kan vara bättre lämpade för små maskiner.

Permalänk
Avstängd
Skrivet av Bascule666:

Med tanke på de senaste nyheterna om priserna på Vega så måste man vara extrem AMD-entusiast för att ens överväga ett inköp av ett RX Vega 64.

1. Sämre prestanda jämfört med ett fabriksöverklockat GTX 1080 kort vilket alla är idag.
2. Behöver 120W mer energi för att prestera i närheten av ett GTX 1080.
3. Låter som attan pga. en usel kylare från AMD
4. Dyrare än ett GTX 1080.

Om ni bortser från alla fyra ovanstående punkter och ändå beställer ett RX Vega 64 så har ni nått fanboyheaven.

snabbare än 1080, därav köp Vega, verkar enkelt.
nyare teknik, hbm2 samt hbcc, kan du leva utan dem?
vem köper gamla kort idag som 1080?
köper du nvidia 1080 är du troligen den största fanboys groupien nånsin

dags kolla av när 56cu varianten landar i butik.

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Medlem
Skrivet av Flopper:

snabbare än 1080, därav köp Vega, verkar enkelt.
nyare teknik, hbm2 samt hbcc, kan du leva utan dem?
vem köper gamla kort idag som 1080?
köper du nvidia 1080 är du troligen den största fanboys groupien nånsin

dags kolla av när 56cu varianten landar i butik.

Du är så långt ute och cyklar så vägen har tagit slut. Vad tog svaren på frågorna 2, 3, 4 vägen? Och dessutom svarar du fel på fråga 1 då ett normalt fabriksöverklockat GTX 1080 är snabbare, enligt Sweclockers även ett GTX 1080 FE.

Visa signatur

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Permalänk
Datavetare
Skrivet av Flopper:

en del funktioner verkar fortfarande vara avstängda, troligen saknas optimering.

Sure. Men att det saknas optimeringar och att något överhuvudtaget inte existerar enligt ISA-manualen är två väldigt olika saker.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Ratatosk:

Ha det så kul
Mitt beräknas komma 25:e, tyvärr hinner det nog inte komma hem till mig före nästa helg.

Grattis Ekorren!

Visa signatur

🖥️:Phanteks Evolv X | Ryzen 7 5800X3D | Noctua nh-d15 chromax.black | 8x Noctua NF-P14s Redux 1500 | Gigabyte x470 Aorus Gaming 7 Wifi | Kingston Renegade 32Gb 3600Mhz | Samsung 990 Pro | ASUS TUF 3080 12Gb | Cougar CM 700W | Acer XB27HU | Mionix Naos QG | CM Storm QuickFire TK MX Blue |

"Bättre bli motbevisad - än förklarad skyldig"

Permalänk
Avstängd

@Yoshman:

det här är ytterliggare en anledning att fundera över om AMD har ljugit om vega kretsen eller om de helt enkelt inte än har gjort drivrutiner för alla dessas funktioner som Vega skulle ha. Det skulle inte förvåna mig om de gör om allt som med 7000 serien om ett halvår och släpper en drivrutin där saker äntligen börjar se bra ut, men som med 7000 serien på tok försent.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.