Rykte: AMD Radeon R9 490X och R9 490 lanseras i slutet av juni

Permalänk
Medlem
Skrivet av Franzenmannen:

Jag är väldigt säker på att det vore bättre att sälja av ditt kort för en vettig peng och lägga mellanskillnaden mot ett av de nya korten.

Jag är väldigt säker på att du har rätt! Försöker bara vara lite ekonomisk för en gångs skull, men det är inte roligt.

Jag får fundera på det tills de nya korten dyker upp. Mitt 960 klarar trots allt det mesta jag slänger på det med hyfsade inställningar i 1080p.

Visa signatur

ASUS ROG Strix G15 G513QM | Pixel 7

Permalänk
Medlem
Skrivet av RaBlack:

LOL hahahaha DMC så FxxKing bra.

Ett annat "bra" exempel kommer här... hahahaha
http://i.imgur.com/RZ3AMFS.jpg

Märkligt, vid 4k har faktiskt Fury högre medel. Man hittar vad man vill. Bara och googla patched GoW AMD.

Permalänk
Medlem
Skrivet av SeF.Typh00n:

Finns väldigt många signaler som pekar på att high-end korten kommer vara Fury X och 980 Ti fram tills Vega och fulla Pascal släpps. Korten som lär ha HBM helt enkelt.

Vad exakt är det för signaler? Är för mig helt obegripligt att de skulle använda high-end nummer på dessa kort om de inte går om föregående generation, något kort med dessa nummer alltid gjort. Kommer se förjävligt ut ur ett pr-perspektiv om tex 1080 inte slår 980Ti.

För den delen talar det väl även mycket för att de kommer vara snabbare rent teoretiskt. Nya pascal tesla kortet ska ju tydligen ha en boost på 1480Mhz vilket tyder på att det kommer bli en ökning i frekvenser hos pascal (och säkert hos polaris också), och med tanke på att de även kommer med ny minneteknik, dubblar transistortätheten och ny arkitektur så lär de isf använda sig av väldigt små chip om de inte ska lyckas gå om 980Ti. Och ligger stora pascal på 610mm2 så lär de ju inte direkt köra på något runt 200 för då blir det ett lite väl stort gap sen när stora pascal kommer som spelkort, lär väl räcker med ett chip över 250 att iaf matcha 980Ti eller?

Permalänk
Medlem
Skrivet av sKRUVARN:

Vad exakt är det för signaler? Är för mig helt obegripligt att de skulle använda high-end nummer på dessa kort om de inte går om föregående generation, något kort med dessa nummer alltid gjort. Kommer se förjävligt ut ur ett pr-perspektiv om tex 1080 inte slår 980Ti.

För den delen talar det väl även mycket för att de kommer vara snabbare rent teoretiskt. Ny pascal tesla kortet ska ju tydligen ha en boost på 1480Mhz vilket tyder på att det kommer bli en ökning i frekvenser hos pascal (och säkert hos polaris också), och med tanke på att de även kommer med ny minneteknik, dubblar transistortätheten och ny arkitektur så lär de isf använda sig av väldigt små chip om de inte ska lyckas gå om 980Ti.

Tesla är väl ett beräkningskort utan ROPs? och en del grafiska delar borttaget eller avstängt vad jag förstått. Man vill nog inte ha boost till superdatorer. Elräkningen är hög nog.

Permalänk
Medlem
Skrivet av dahippo:

Tesla är väl ett beräkningskort utan ROPs? och en del grafiska delar borttaget eller avstängt vad jag förstått. Man vill nog inte ha boost till superdatorer. Elräkningen är hög nog.

http://www.anandtech.com/show/10222/nvidia-announces-tesla-p1...

Permalänk
Medlem
Skrivet av dahippo:

Det är media som döpte till 1.X. AMD själv har internt kört GCN 1(7xxx, XB1,PS4 R5,R7,APU), 2(Grenada/Hawaii), 3(Tonga,Fiji) och 4(kommande). Säkert någon är fel.

AMD pratar bara generationer av GCN och sätter ingen sifferbetäckning, därav förvirringen.

Första generationen GCN Andra generationen GCN Tredje generationen GCN
GCN 1.0 GCN 1.1 GCN 1.2
GCN 1.0 GCN 2.0 GCN 3.0

De flesta engelska medier kör på andra varianten medans svenska verkar ha bestämt sig för sista. Fråga mig inte varför På Wikipedia kör man på andra varianten men jag antar att det inte finns nåt rätt eller fel här.

Permalänk
Avstängd
Skrivet av Durkadur:

AMD pratar bara generationer av GCN och sätter ingen sifferbetäckning, därav förvirringen.

Första generationen GCN Andra generationen GCN Tredje generationen GCN
GCN 1.0 GCN 1.1 GCN 1.2
GCN 1.0 GCN 2.0 GCN 3.0

De flesta engelska medier kör på andra varianten medans svenska verkar ha bestämt sig för sista. Fråga mig inte varför På Wikipedia kör man på andra varianten men jag antar att det inte finns nåt rätt eller fel här.

typ så ja.
Lite siffror och nummer med bokstäver sen blir det förvirrat

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Medlem
Skrivet av RaBlack:

Har inte varit sådär taggad inför någon lansering sen 1992, då Amiga 1200 & Atari Falcon 030 släpptes....
År 2016 är det nya året Polaris (AMD) & Pascal (Nvidia) skriver historia....
MVH

Mmm minnen minnen ... men vänta nu 1992 ... nu börjar man känna sig gammal ...jaja åren går...

Permalänk
Medlem
Skrivet av prawler646:

Känns som marknadsförningen av grafikkort har blivit rent ut sagt fånigt. Står "NEW NEW NEW NEW" bla bla bla, lovas hit och dit och i slutändan så är det knappt någon förbättring alls jämfört med föregående generation. Nu blir de väll 16nm för bägge, teorin som dom kör med säger 2x högre FPS i spel... Med tanke på hur det brukar bli tycker jag vi ska vara glada om det ens är lika "bra" som tidigare kort.

Fast 28nm till 16nm är enorm skillnad, speciellt för grafikkorten. Gällande cpu så har dom minskat lite för varje gång (eller nästan varje gång) i alla fall för Intel, sen så är det väl så att en cpu inte får ökad prestanda på samma sätt som en gpu när dom får fler transistorer. Glöm inte ganska så extrema skillnader i minnesbuss, bandbredd. Men även klockfrekvenser. Vi vet ju inte ännu men tror inte alls det är omöjligt att vi får en närmare dubbel prestanda. Denna gången blir inte som tidigare så det funkar inte riktigt att gå efter hur det "brukar" bli.

Permalänk
Avstängd

@Friterad:
Dubbel prestanda...
Oj eller ska man säga WOW...
Vad krävs det för CPU för att inte flaska?
Räcker det med Sandy bridge 2011 eller Ivy Bridge 2012 eller måste man köpa "ALL NEW" för dessa monster kort?
Lär nog bli stort hål i plånboken... Men super för övrigt...

MVH

Permalänk
Medlem
Skrivet av RaBlack:

@Friterad:
Dubbel prestanda...
Oj eller ska man säga WOW...
Vad krävs det för CPU för att inte flaska?
Räcker det med Sandy bridge 2011 eller Ivy Bridge 2012 eller måste man köpa "ALL NEW" för dessa monster kort?
Lär nog bli stort hål i plånboken... Men super för övrigt...

MVH

Skulle säga att i de flesta nya spel är kraven på gpun betydligt hårdare än på cpun sekunden man vill ha höga inställniingae samt hög upplösning. Så alla som har en hyfsat snabb quadcore behöver nog inte oroa sig.

Permalänk
Medlem

Prestandan var väntad, kommer dröja till Q4 eller Q1 2017 innan de riktiga korten kommer! Ser inte detta som någon flopp dock, hoppas bara priset blir hyffsat.

Permalänk
Avstängd

@Semjonov: Räcker en i7 2700k med lagom OC?

MVH

Permalänk
Skrivet av RaBlack:

LOL hahahaha DMC så FxxKing bra.

Ett annat "bra" exempel kommer här... hahahaha
http://i.imgur.com/RZ3AMFS.jpg

Vadå "bra", mitt exempel var bra, på ett spel som är byggt på dx12 från oxide, med kontakt från både amd och nvidia, testat sedan länge, och patchat, och släpptes nyss. Du länker till ett test på ett spel som gjordes för 10 år sen, som blivit portat till pc och körs under UWP, som är så jävla klart feloptimerat av utvecklarna att ett 370 presterar 13% sämre än ett fury. på 1080 presterar TI och fury lika, på 4k, som fury är generellt bättre på, halvereras prestandan. självklart är det nåt fel

Permalänk
Medlem
Skrivet av kassgrafik:

Vadå "bra", mitt exempel var bra, på ett spel som är byggt på dx12 från oxide, med kontakt från både amd och nvidia, testat sedan länge, och patchat, och släpptes nyss. Du länker till ett test på ett spel som gjordes för 10 år sen, som blivit portat till pc och körs under UWP, som är så jävla klart feloptimerat av utvecklarna att ett 370 presterar 13% sämre än ett fury. på 1080 presterar TI och fury lika, på 4k, som fury är generellt bättre på, halvereras prestandan. självklart är det nåt fel

Men snälla. Inget av exemplen var bra.
Titta på recensioner med flera titlar, helst det man _själv_ vill spela. Hans poäng var att man kan hitta skeva test inte testet i sig.

4K kvittar väl, sluta vara selektiv i dina argument. Spelar du i 4K? Hur många tror du gör det i jämförelse med 1080p?

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem
Skrivet av svartdroid:

Kan vara så att dom namnsätter Vega på samma sätt som nuvarande generation.
3xx och Fury, nu 4xx och (insert passande namn here)

4xx och yyyy? Dvs Fyry.

Skrivet av Durkadur:

AMD pratar bara generationer av GCN och sätter ingen sifferbetäckning, därav förvirringen.

Första generationen GCN Andra generationen GCN Tredje generationen GCN
GCN 1.0 GCN 1.1 GCN 1.2
GCN 1.0 GCN 2.0 GCN 3.0

De flesta engelska medier kör på andra varianten medans svenska verkar ha bestämt sig för sista. Fråga mig inte varför På Wikipedia kör man på andra varianten men jag antar att det inte finns nåt rätt eller fel här.

Som jag minns det var det Anandtech som började med GCN 1.0, 1.1 etc för att förenkla i en artikel, och sen spred det sig därifrån. Fast det blev väl inte så populärt hos AMD, eftersom arkitekturerna mer var som smörgåsbord av alternativ de valde från när de designade kort, inte strikta uppdelningar. Det är ju därför det blivit så rörigt bland AMDs kort vilka som har stöd för vissa saker eller ej. Olika lapptäcken har valts för olika kort, nåt de bör se till att fixa så att det blir lättare att få en överblick.

Permalänk
Avstängd
Skrivet av kassgrafik:

Vadå "bra", mitt exempel var bra, på ett spel som är byggt på dx12 från oxide, med kontakt från både amd och nvidia, testat sedan länge, och patchat, och släpptes nyss. Du länker till ett test på ett spel som gjordes för 10 år sen, som blivit portat till pc och körs under UWP, som är så jävla klart feloptimerat av utvecklarna att ett 370 presterar 13% sämre än ett fury. på 1080 presterar TI och fury lika, på 4k, som fury är generellt bättre på, halvereras prestandan. självklart är det nåt fel

Ta det med en nypa salt vännen... lite skämt och ironi skadar inte. Ursäkta om du tog det så allvarligt.

Den versionen som kanske ska släppas inom kort är inte Gears of war "1" från 2007
Detta är en remastrad version som dom arbetat med 18 månader + och heter Gears of War: Ultimate Edition. Spelet kommer innehålla ganska mycket mer än föregångaren lite nya banor m.m. inkl. DX 12 effekter. Hoppas de lyckas få till det då jag gillade de gamla spelen. Ser framemot att spelet ska fungera vid utsläpp men det är nog bara önsketänk. Men med lite fler patchar så kanske de lyckas få till den.

Synd att de la av med Fable Legends... ett annat roligt spel. https://www.fablelegends.com/betasignup

Kollar man på hur det såg ut då det 1'a GoW spelet släpptes så stod det mellan DX9 och DX10... Länkar från den sajten du själv la upp ang. AoTS kommer här nedan...

http://www.hardocp.com/article/2007/11/05/gears_war_pc_perfor...

Titta och jämför DX9 vs DX 10 liknande problem då... nästan allt nytt skapar problem tyvärr...

MVH

Permalänk
Medlem
Skrivet av Devil May Cry:

Men snälla. Inget av exemplen var bra.
Titta på recensioner med flera titlar, helst det man _själv_ vill spela. Hans poäng var att man kan hitta skeva test inte testet i sig.

4K kvittar väl, sluta vara selektiv i dina argument. Spelar du i 4K? Hur många tror du gör det i jämförelse med 1080p?

Problemet är ju att vi inte har tillräckligt med "riktiga" DirectX 12-titlar än; alltså inte spel som är gjorde i DirectX 11 och sen portade till 12:an. Det är först när vi har fler spel som vi kan börja jämföra på riktigt.

Varför skulle 4K kvitta? Tycker det är högst relevant. har man råd med marknades fläskigaste grafikkort har man nog råd med markandes fläskigaste skärmar också

Permalänk
Medlem

Längtan är hög hos mig.

Hoppas bara dom inte släpper dessa som en rebrant från 390x/390 - 290x/290.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Avstängd

@Durkadur: Klart han inte menar att det kvittar.
Men hans fråga är direkt ställd till kassgrafik. Inte till hela SweClockers.

Men snälla. Inget av exemplen var bra.
Titta på recensioner med flera titlar, helst det man _själv_ vill spela. Hans poäng var att man kan hitta skeva test inte testet i sig.

4K kvittar väl, sluta vara selektiv i dina argument. Spelar du i 4K? Hur många tror du gör det i jämförelse med 1080p?

För övrigt håller jag med dig.
Problemet är ju att vi inte har tillräckligt med "riktiga" DirectX 12-titlar än; alltså inte spel som är gjorda i DirectX 11 och sen portade till 12:an. Det är först när vi har fler spel som vi kan börja jämföra på riktigt.

Varför skulle 4K kvitta? Tycker det är högst relevant med 4k. har man råd med marknadens fläskigaste grafikkort har man nog råd med markandens fläskigaste skärmar också.

MVH

Permalänk
Medlem
Skrivet av Durkadur:

Problemet är ju att vi inte har tillräckligt med "riktiga" DirectX 12-titlar än; alltså inte spel som är gjorde i DirectX 11 och sen portade till 12:an. Det är först när vi har fler spel som vi kan börja jämföra på riktigt.

Varför skulle 4K kvitta? Tycker det är högst relevant. har man råd med marknades fläskigaste grafikkort har man nog råd med markandes fläskigaste skärmar också

Anledningen att det kvittar är för att du själv kör ju inte i det, majoriteten gör inte det. Varför? För att inget kort klarar det i moderna spel ändå.

Enda anledningen att du intresserar dig i 4k prestanda är för att _du_ vet att AMD brukar ligga i framkant där.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem
Skrivet av Devil May Cry:

Anledningen att det kvittar är för att du själv kör ju inte i det, majoriteten gör inte det. Varför? För att inget kort klarar det i moderna spel ändå.

Enda anledningen att du intresserar dig i 4k prestanda är för att _du_ vet att AMD brukar ligga i framkant där.

Jag svarar inte för honom men är det inte det high-end handlar om . Att klara driva applikationer i högre nivåer eller i viss mån framtidssäkra sina köp ett tag

Permalänk
Medlem

Inväntar Vega med hbm2-minne istället. Pengarna för två sådana kort och ett nätagg är fixade. Ser verkligen framemot att Vega är nya radeon fury.

Skickades från m.sweclockers.com

Visa signatur

Dator 1: AMD Ryzen 9 7950X3D, 64 GB Kingston Fury DDR5 5600 MHz CL36 , Asus Radeon 7900XTX TUF OC, Be Quiet Dark Base Pro 900 rev.2 Black Case, Asus ROG Crosshair X670E Hero Mobo , Be Quiet 1500W PSU, Win10 Pro 64-bit, Creative Soundblaster AE7

Dator 2: Intel Core i7 9700k, 32GB DDR4 Corsair 3000 MHz, Asus TUF Z390 Mobo, Asus Radeon 6800 XT TUF, Be Quiet 850 PSU, Win10 Pro 64-bit, Asus TUF GT502 Case

Permalänk
Medlem
Skrivet av dahippo:

Jag svarar inte för honom men är det inte det high-end handlar om . Att klara driva applikationer i högre nivåer eller i viss mån framtidssäkra sina köp ett tag

Om du spelar på low i 30-45 fps så är det inte särskilt high-end.

I alla andra fall så påpekar man gärna hur PC är master race och minst 60fps helst 144 men när det passar ja då är det 4k och allt på low med 30 fps som gäller

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem
Skrivet av RaBlack:

@Durkadur: Klart han inte menar att det kvittar.
Men hans fråga är direkt ställd till kassgrafik. Inte till hela SweClockers.

Men snälla. Inget av exemplen var bra.
Titta på recensioner med flera titlar, helst det man _själv_ vill spela. Hans poäng var att man kan hitta skeva test inte testet i sig.

4K kvittar väl, sluta vara selektiv i dina argument. Spelar du i 4K? Hur många tror du gör det i jämförelse med 1080p?

För övrigt håller jag med dig.
Problemet är ju att vi inte har tillräckligt med "riktiga" DirectX 12-titlar än; alltså inte spel som är gjorda i DirectX 11 och sen portade till 12:an. Det är först när vi har fler spel som vi kan börja jämföra på riktigt.

Varför skulle 4K kvitta? Tycker det är högst relevant med 4k. har man råd med marknadens fläskigaste grafikkort har man nog råd med markandens fläskigaste skärmar också.

MVH

Ok jag var inte klar över att det var en privat konversation. Jag förstår inte riktigt vad din poäng är med all fettext och understrykningar men det kan vara för att det är fredag och jag har tagit några öl Men jag tolkar det som att vi är på samma planhalva och att jag misstolkade på något sätt.

Skrivet av Devil May Cry:

Anledningen att det kvittar är för att du själv kör ju inte i det, majoriteten gör inte det. Varför? För att inget kort klarar det i moderna spel ändå.

Enda anledningen att du intresserar dig i 4k prestanda är för att _du_ vet att AMD brukar ligga i framkant där.

Oj vilka höga växlar du drar Skull enda anledningen att vara intresserad av 4K vara för att AMD ligger i framkant där? Hur tänker du nu?

Jag är intresserad av 4K för att det är ett stort hopp från 1080p och för att jag till hösten ska investera in en fläskig spelmaskin som jag sparat till. Du låter precis som att du känner mig och jag förstår inte vart det kommer ifrån?

Permalänk
Medlem
Skrivet av Durkadur:

Oj vilka höga växlar du drar Skull enda anledningen att vara intresserad av 4K vara för att AMD ligger i framkant där? Hur tänker du nu?

Jag är intresserad av 4K för att det är ett stort hopp från 1080p och för att jag till hösten ska investera in en fläskig spelmaskin som jag sparat till. Du låter precis som att du känner mig och jag förstår inte vart det kommer ifrån?

4K i sig är superkul och intressant :), inte det vi diskuterar dock. Alltid lika kul när man argumenterar/diskuterar sedan börjar någon prata om något helt annat och missar poängen totalt.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem
Skrivet av Devil May Cry:

4K i sig är superkul och intressant :), inte det vi diskuterar dock. Alltid lika kul när man argumenterar/diskuterar sedan börjar någon prata om något helt annat och missar poängen totalt.

Du skriver saker som att 4K kvittar för mig och att enda anledning till att jag är intresserad av 4K är för att AMD är i framkant där. När jag konfronterar dig viftar du bort det hela med att jag missat poängen men du förtydligar inte vad din poäng isf skulle vara.

Nu avslutar jag det här samtalet för du pratar nåt språk jag inte förstår.

Permalänk
Medlem
Skrivet av Devil May Cry:

4K i sig är superkul och intressant :), inte det vi diskuterar dock. Alltid lika kul när man argumenterar/diskuterar sedan börjar någon prata om något helt annat och missar poängen totalt.

Varför ge dig in i en diskussion du kommer att skämmas för. Du la upp en bild på GoW när det släpptes inte efter det att AMD fick möjlighet att kolla spelet och släppa en drivrutin. Det är ett GW spel(förlåt GW effekter) med vad jag kallar fejkad DX12. Den använder feature set från (12).1 men använder inte den stora vinsten med dx12. Nvidia kan mer eller mindre med mjukvara "schemalägga" grafik+compute men med risken att CPUn storknar när den redan har fullt upp med att peka ut 10k-tals andra objekt i spelet, inte i skärmen i AoTS som han nämnde. AMD har detta inbyggt i sin hårdvara. Är då detta ett dåligt benchmark när det är det spelet det snackats mest om sen ca 1 år tillbaka.

Permalänk
Medlem
Permalänk
Medlem

Tror det är antingen saruman, Gandalf eller är något "Lost" kan också vara trollet i Sin City