AMD presentererar RDNA 2 – Radeon RX 6000 och "Big Navi"

Permalänk
Medlem
Skrivet av ottoblom:

Lycka till och få tag på det . Samma med 2080 ti som låg på 1200 dollar egentligen för 999 och för 2080 som egentligen låg på 799 i stället för 699 .

Vart skall du få tag på AMD's kort då?

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av Donnerstal:

Men där står det helt stilla. Det börjar likna 2080 Ti som lanserades för $999 men som sedan såldes för minst $1200.

2080 ti lanserades dock för $1200 FE. AIB korten hade en MSRP på $999. Vissa höll den, andra inte.

Permalänk
Medlem
Skrivet av Frisell:

Nej, jag antar väl det. Dessutom har ju AMD lite att visa vad det gäller drivers. Antar att jag behåller mitt 3080.

Skrivet av Frisell:

Tack för svar. Jag vill gärna att amd får lite att säga till om, men jag skulle nog känna mig "tryggare" med ett nvidiakort. Tänker mest på drivrutiner och nämnda skärm. Blir nog att behålla. <3

Skrivet av aMp:

Det i kombination av att jag seriöst aldrig hört någon säga att de föredrar AMDs drivrutiner och mjukvara över Nvidias de senaste... 5-8 åren gör nog att jag definitivt avvaktar denna första "come back"-serie från AMD så får man se hur de står sig med nästa generation. Men välkomna tillbaka upp i topp igen AMD.

Kan ju bara tala för mig själv samt alla polare som kört både AMD och Nvidia dessa senaste "5-8 åren" visserligen men....Det har fungerat mer eller mindre alldeles utmärkt för oss alla. Kan inte säga att vi föredrar ena eller andra faktiskt. Båda har vart bra. Anekdotisk bevisföring förvisso men ni får ta det för vad det är.

Syrran och kusinen hade båda 670 under några år och syrran stötte på flera problem med det och kusinen fick muslagg han inte kunde få bort mot slutet och fick byta till ett begagnat 7979 och då var problemet bortblåst. Syrrans nya 5700XT hon köpte förra hösten led av krascher i vissa spel men det är löst nu såvitt jag vet.

Men jag och mina polare samt brorsan har inte haft några problem alls. Så det är alla problem vi stött på inom mina närmsta kretsar och vi har kört en hel del olika kort genom åren: 2x GTX670, 4x HD7970, 1x R9 290X, 1x R9 Fury, 1x RX480, 1x GTX 1070 och 2x GTX 1080ti.

Kan visserligen tillägga att ingen av oss installerar saker som Geforce experience eller motsvarande från AMD utan bara drivrutinen och vi gör generellt rena installationer med DDU när vi byter drivrutin. Vi spelar med korten och gör inget annat alls. Så all övrig fluff de erbjuder som shadowplay och allt vad det heter är helt ointressant för oss.

Att AMD stötte på lite problem med en helt ny arkitektur när de övergav GCN till förmån för RDNA är allvarligt talat inget konstigt i mina ögon. Det är ett stort hopp att göra det bytet. Men de verkar ha fått ordning på det snabbt vad jag vet. Så 6000-serien är inget jag är orolig för att uppgradera till i varje fall.

Lutar åt 6900XT för min del tex. Ville gärna ha lite mer än 3080 kunde erbjuda och 3090 är uppåt väggarna för dyrt. Men 6900XT ligger okej till tycker jag. Men jag vill se tester på allt så köper jag något under början av nästa år mest sannolikt. Men utesluter inte 3080 eller 6800XT heller.

*edit* Kan också tillägga att raytracing känns fortsatt ointressant för mig iaf. Inför nästa konsolgeneration blir det nog aktuellt. Men sålänge konsolerna förlitar sig på vanlig prestanda kommer det gälla PC också och raytracing förblir lite mer påklistrat.

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 6900XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Medlem
Skrivet av marcusOCZ:

Vart skall du få tag på AMD's kort då?

Vet inte ens om jag skall köpa AMD eller Nvida nästa gång vi pratade om priset . och vill man köpa ett 3080 får man betala mer än 699 dollar .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av filbunke:

Och vad som då händer är att de spelen inte kommer till PC. För vilka spelföretag kommer att lägga ner de pengar som krävs för att göra en PC-version om man sen bara kan sälja till den ynka minoritet som har nvme-diskar?

De fungerar för spel till de nya konsollerna för att alla då kommer att ha hårdvaran som krävs.

Eller så fungerar det som en drivkraft för att få folk till att uppgradera.
Om de känner att det finns en tillräcklig mängd kunder så släpper de också spelet på PC. Men folk utan Nvme diskar kommer inte att kunna spela.

Permalänk
Medlem
Skrivet av marcusOCZ:

Vart skall du få tag på AMD's kort då?

Typ på de vanliga ställena!

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av Chrisj:

Du får fortfarande obscent mycket mer prestanda för samma peng om du köper ett kort i samma klass, det är bara det att man lagt till nya högre klasser ovanpå de gamla.

Sekunderar detta- på den tiden var det om man ville ha "bra" fps vilket oftast fortfarande var <100 SLI eller Crossfire som gällde. Jag hade flera modeller i SLI, 8800GTS320, 8800GT512, 9800GX2, 9800GTX och sedan när jag gick över till AMD ett tag hade jag 5850 i CF och 6970 i CF. Är rätt nöjd med att kunna lägga mer pengar och få ett enda kraftfullt kort och slippa allt krångel.

Sedan är upplevelsen rätt annorlunda nu med ett kort runt 4k- om det kommer ett 3060 för runt 4000 till exempel så skulle jag gissa att det är mer än nog för att driva 1440p i 144hz för det mesta och för att köra rätt vettig 4k därtill, sannolikt i ett par år.

Det var väl tyvärr under senaste par åren som det verkligen sugit- jag är rätt missnöjd med mitt 2080S och priset jag köpte det för, minst sagt.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Yoshman:

Är själv övertygad om att det finns massor med optimeringspotential runt ray-tracing i spel. Det vi sett så här långt är i praktiken quick-hacks för att få in DXR i existerande spelmotorer. När spel byggda från grunden för DX12/DXR hittar ut lär vi få se större grafisk utväxling på samma beräkningsbudget. Allt detta tar tid, spel är idag rätt gigantiska kodbaser där ledtiden för utveckling räknas i flertalet år. De AAA-titlar vi ser nu är fortfarande sådana som startades innan Turing lanserades!

Sett på spelmarknaden som helhet - mobile, konsol, PC - så har RTX inte haft något genomslag alls. Det finns i några titlar som backats upp av Nvidia. Spel byggda från grunden för DXR finns inte på kartan.
Nu kommer det att finnas ett ännu obekant stöd i de nya spelkonsolerna. Lägg märke till att Microsoft förbundit sig till bakåtkompatibilitet för nya titlar (nog klokt med tanke på att antalet sålda XBox s(x) tar ett tag att nå volym), så lär det ta tills tidigast 2023 innan vi ser titlar som tar sin utgångspunkt i DXR.

Fast också det är tveksamt. Det säljs inga spel idag som inte kör på ett amd 7870 eller gtx970 t.ex. Vad kommer att betraktas som baslinje för ett spel som släpps 2023? Knappast DXR. För att inte tala om att mobila plattformar fortfarande växer i andel av mjukvaruintäkterna för spel, så det blir allt relevantare att göra som Fortnite, LoL, och de andra som verkligen spelas av många, och snegla på möjligheterna att släppa spelen till de mobila plattformarna också.

När man faktiskt försöker nå de stora volymerna, får inte blankpolerade golv kosta för mycket. Så det kan mycket väl bli så att DXR inte blir mer än en checkbox för dem som har hårdvarustöd för det snarare än ett fundament som spelindustrin bygger sina produkter på under överskådlig framtid. Och till skillnad från förr kan vi inte räkna med att litografiska framsteg skall lösa det åt oss. Om tekniken inte får fullt genomslag på de nya konsolerna har den knappt någon marknad alls.

Permalänk
Medlem
Skrivet av Nekrol:

Inte direkt, vi vet vilken hastighet de får ut med directstorage på Xboxen. Och det är inte i närheten av de 14Gb/s som utlovas i RTX I/O.
Även om Nvidia inte får ut den prestanda som utlovats så kommer det fortfarande vara snabbare med RTX I/O. Det är ju trots allt en optimering av DirectStorage. Skulle vara rätt konstigt om de inte fick ut mer hastighet.

De och Sony har väl ändå anget hastigheten på deras SSD, inte vad AMD teoretiskt skulle klara av.

Visa signatur

CCNP

Permalänk
Medlem
Skrivet av Daemon85:

Hänvisar till folk på Youtube som sett oberoende resultat.
Vågar garantera att amd i deras egna tester använder sin senaste 5000 serie cpu med sin egna gpu och sen Intel med nvidias gpu. Amd har gjort denna taktik förut med olika system för att få sina egna produkter att glänsa.

AMD använde samma testsystem (givet att de bytte gpuer ) för samtliga benchmarks. Källa: Gamers Nexus

https://youtu.be/haAPtu06eYI

Permalänk
Medlem
Skrivet av Shiprat:

Sekunderar detta- på den tiden var det om man ville ha "bra" fps vilket oftast fortfarande var <100 SLI eller Crossfire som gällde. Jag hade flera modeller i SLI, 8800GTS320, 8800GT512, 9800GX2, 9800GTX och sedan när jag gick över till AMD ett tag hade jag 5850 i CF och 6970 i CF. Är rätt nöjd med att kunna lägga mer pengar och få ett enda kraftfullt kort och slippa allt krångel.

6970 i Crossfire var toppalternativet från AMD på den tiden ja, har slutat ens tänka på att CF/SLI funnits. Då var det $369x2 alltså $738 och helt plötsligt är priserna för dagens toppalternativ inte så långt ifrån gårdagens heller.

Permalänk
Medlem
Skrivet av Frisell:

Nej, jag antar väl det. Dessutom har ju AMD lite att visa vad det gäller drivers. Antar att jag behåller mitt 3080.

Vad tror ni man får för ett 2070 ventus? Fnular om jag ska bygga en liten rackare till TVn eller bara kränga det.

Fort som fan, Radeon 5700 säljs fortfarande för 4k.
Skulle testa ca 3k på blocket.

Permalänk
Medlem
Skrivet av _Merc_:

så det enda det säger mig är att allt förutom ryzen 5000 serien är en bottleneck för radeon 6000.

Du får gärna länka till dessa youtubers.

Allt utom ryzen 5000 är bottleneck för både nvidia och amd grafikkort. När ryzen 5000 släpps kommer du se nya rekord sättas på 3DMark Leaderboard, var så säker!

Permalänk
Medlem

Bara några generationer kvar till 9000-serien, då blir det nog ett 9700 av ren nostalgi ^^

Visa signatur

Redbox: Asrock B650 Lightning ATX, 7800x3D -20CCO, XFX 6950XT, 2x32GB Corsair Vengence 6400 CL32, WD SN770 2TB, Corsair RMe 1000, Lian Li Lancool 216, Peerless Assassin 120 SE
Purpbox: Z87-Pro, I5 4670K@4.2, Sapphire 290 TRI-X, 2x8GB Crucial Tactical@stock, Deep Silence 1
Samsung Evo 250+500GB + QVO 1TB, 2x1TB 7200RPM backup/lagring
Det var bättre förr: E5300 2600MHz -> 3640MHz, Celeron 300A -> 450MHz

Permalänk
Medlem
Skrivet av Tapperswe:

Har också G-sync och ett 1080Ti, jag använder i princip alldrig G-sync och framförallt i fps spel iom att det ger input lag. Ska jag vara ärlig ser jag bara skillnad med G sync på om spelet ligger under 75-80 fps ( syns bara vid väldigt få tillfällen ) eller dom få spel som hoppar mkt upp och ner i fps. Jag valde min skärm efter upplösning, en väldigt bra och prisvärd (5000kr) 1440p skärm som sen råkade ha G- sync.
Spelade nyligen igenom rdr2 i låsta 60fps och ingen G-sync och saknade inte alls funktionen, ingen synlig screan tearing vad jag kunde se.
Att välja GPU efter G- sync känns inte relevant alls för mig.

Behovet av G-sync kommer sjunka drastiskt när man stoppar i ett 3080 eller 6800xt om upplösningen stannar vid 1440p det är korrekt.
Själv upplever jag negativt skillnad i nästan alla FPS spel eller 3e person spel vid ungefär som dig runt 90fps och under.
Då ett 1080ti i 1440p ofta hamnar där och lägre i tunga sekvenser uppskattar jag g-syncen mycket och gillar absolut inte att köra utan.
Över 120Hz brukar jag inte längre notera någon skillnad i några spel utom CS-GO också kankse något mer jag inte tänker på nu, därför maxbegränsar jag ofta FPSen efter skärmens max frekvens för att slippa problem som kommer över den frekvensen samt sparar lite på temperaturen i rummet i vissa spel.
Så visst ett nytt gfx kommer troligen ta bort mycket av behovet men jag gillar funktionen och det dröjer nog inte så många nya AAA releaser innan ett 3080 eller liknande kommer få svettas lite i 1440p med ultra som grafikinställning.

Permalänk
Medlem
Skrivet av ottoblom:

Vet inte ens om jag skall köpa AMD eller Nvida nästa gång vi pratade om priset . och vill man köpa ett 3080 får man betala mer än 699 dollar .

https://www.elgiganten.se/product/datorer-tillbehor/datorkomp...

Det har ju inte direkt vart svårt att ställa sig i kö på kort för utgångspriset. Att få kortet å andra sidan...

Visa signatur

Råd tas på eget ansvar.

Permalänk
Medlem
Skrivet av Chrisj:

6970 i Crossfire var toppalternativet från AMD på den tiden ja, har slutat ens tänka på att CF/SLI funnits. Då var det $369x2 alltså $738 och helt plötsligt är priserna för dagens toppalternativ inte så långt ifrån gårdagens heller.

Yep, och vad jag skulle säga är upplevelsen idag oerhört mycket bättre- från att slippa ställa in olika modes beroende på spel och i vissa spel bara kunna köra typ "single-gpu mode" till att får skum latens och stuttering i spel där man ville ha höga fps osv.

Saker som att kunna överklocka/undervolta och sätta profiler samt ändra inställningar direkt från in-game overlay är underbart också, jämfört med den tiden man kunde behöva spendera 10min innan man körde ett spel för att ändra CF/SLI settings och överklocks från vad man visste fungerade för förra spelet till vad man visste fungerade för nuvarande.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av maniak:

De och Sony har väl ändå anget hastigheten på deras SSD, inte vad AMD teoretiskt skulle klara av.

Vad Sony klarar av är irrelevant då de använder en helt proprietär lösning. Vad directstorage klarar av är känt. Kommer inte ihåg exakt vad det var men jag tror siffran låg mellan 7-9 GB/s.
Så eftersom AMD bara kör på directstorage direkt så kommer de alltså ha den hastigheten, precis som Xbox.

Permalänk
Medlem
Skrivet av Nekrol:

Vad Sony klarar av är irrelevant då de använder en helt proprietär lösning. Vad directstorage klarar av är känt. Kommer inte ihåg exakt vad det var men jag tror siffran låg mellan 7-9 GB/s.
Så eftersom AMD bara kör på directstorage direkt så kommer de alltså ha den hastigheten, precis som Xbox.

Allt detta är rätt irrelevant tills vidare- vad jag förstår koll directstorage ut som preview för utvecklare någon gång nästa år, och om de då börjar implementera direkt så är det väl ändå en bra stund innan spel kommer ut som är byggda för att faktiskt använda det. Så såvidare inte nvidia kör helt utan directstorage med en egen lösning som de kan leverera snabbare så är det inget som kommer gör skillnad någon gång snart, om jag inte missat något.

Jag har suttit och hållit mig från att köpa en pcie4 ssd i väntan på att se vad som kommer gälla för directstorage men känns som att när det väl börjar komma spel med det så har väl allt ändrats igen ändå typ.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av CubaCola:

Det är ju exakt det här som konsolerna har gjort ett bra tag,
De ändrar upplösning neråt när frameraten inte hänger med riktigt.
Du får skilja på skärmens upplösning och renderingsupplösning. Det är lite som att spelet i sig ändrar renderscale som finns i många spel, fast automatiskt.

Verkar ju dumt att AMD skalar ner ifrån säg 1440P till 1080P för att sedan skala upp till 1440P igen. Vad exakt skulle det ge?
Förutom ännu sämre framerates och bildkvalitet.

DLSS så kör man en låg upplösning hela tiden som skalas ujpp till 1440P / 4K

Förutom då att dom inte skalar ner upplösningen, om du nu inte menar att dom renderar en lägre upplösning?

Skillnaden är att AMD renderar i full upplösning fram tills det blir ett scenario där FPS kan droppa, dår renderar dom 'dynamiskt' en lägre upplösning som skalas upp till skärmen.
Man nyttjar kortets resurser maximalt, vilket ju bör ge en bättre bild överlag.

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem

Senast jag körde AMD (typ tre-fyra år sen), så var drivrutinerna katastrof. Hur har de fungerat senaste åren?

Permalänk
Medlem
Skrivet av KplSteiner:

Senast jag körde AMD (typ tre-fyra år sen), så var drivrutinerna katastrof. Hur har de fungerat senaste åren?

Aldrig själv haft några problem med mitt fury x och drivrutiner

Permalänk
Medlem
Skrivet av Bengt-Arne:

Förutom då att dom inte skalar ner upplösningen, om du nu inte menar att dom renderar en lägre upplösning?

Skillnaden är att AMD renderar i full upplösning fram tills det blir ett scenario där FPS kan droppa, dår renderar dom 'dynamiskt' en lägre upplösning som skalas upp till skärmen.
Man nyttjar kortets resurser maximalt, vilket ju bör ge en bättre bild överlag.

edit: ja, vi pratar olika språk, men menar nog samma. ja renderar en lägre upplösning.

Det är som sagt det här som Xbox One och PS4 har gjort ett bra tag.
Dynamic resolution kallas det väl då, att när scenen blir intensiv så går upplösningen ner.

Bättre bild är väl objektivt. Skulle vilja säga att bilden försämras, men att frameraten bibehålls så gott det går.
Och händer det mycket på skärmen så kanske det blir svårt att se att bildkvaliteten blev sämre, så att det inte upplevs lika illa som det faktiskt är.

sedan har ju Playstation sin "DLSS" teknik som kallas för checkerboard rendering, där man har tex en 1440P bild som skalas upp till 4k utan jätteförluster i bildkvalitet.
Och Insomniac har en egen DLSS-lösning också.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Avstängd
Skrivet av crion:

Allt utom ryzen 5000 är bottleneck för både nvidia och amd grafikkort. När ryzen 5000 släpps kommer du se nya rekord sättas på 3DMark Leaderboard, var så säker!

med tanke på att nvidia inte kan synca sin gpu emot en cpu ur 5000 serien tvivlar jag på det.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av Triton242:

Behovet av G-sync kommer sjunka drastiskt när man stoppar i ett 3080 eller 6800xt om upplösningen stannar vid 1440p det är korrekt.
Själv upplever jag negativt skillnad i nästan alla FPS spel eller 3e person spel vid ungefär som dig runt 90fps och under.
Då ett 1080ti i 1440p ofta hamnar där och lägre i tunga sekvenser uppskattar jag g-syncen mycket och gillar absolut inte att köra utan.
Över 120Hz brukar jag inte längre notera någon skillnad i några spel utom CS-GO också kankse något mer jag inte tänker på nu, därför maxbegränsar jag ofta FPSen efter skärmens max frekvens för att slippa problem som kommer över den frekvensen samt sparar lite på temperaturen i rummet i vissa spel.
Så visst ett nytt gfx kommer troligen ta bort mycket av behovet men jag gillar funktionen och det dröjer nog inte så många nya AAA releaser innan ett 3080 eller liknande kommer få svettas lite i 1440p med ultra som grafikinställning.

Jag har suttit och funderat på detta också en hel del, då jag har en 3440x1440 120hz skärm med endast Gsync och ingen Freesync. Har då funderat på om det är fel beslut att köra den med ett av de nya AMD korten.

Men om jag köper ett av AMD korten som presterar bäst, så bör jag ligga över 120FPS oavsett vad jag spelar i princip (om inte spelet i sig har problem tex inte är optimerat) , och finns det då behov av en sync teknologi?

Har en jättefin AW skärm som jag inte kommer byta ut på många år, så länge den håller, men det är just pga sync frågan som Nvidia fortfarande är med i matchen för mig som ett alternativ, hade det inte varit för detta så hadde det blivit AMD den här omgången.

Men som sagt, kommer Sync spela någon roll med ett av de topp presterande korten på en 3440x1440 120hz skärm?

Skulle vara jätteintressant om en av de otroligt många tech youtube kanalerna gjorde ett sånt test imo.

Permalänk
Medlem
Skrivet av EntropyQ3:

DLSS är en utmärkt uppskalningsteknik. Som stöds av tolv spel, varav inget ingår i mitt spelbibliotek.

Ärligt talat vore det mycket intressantare med en uppskalningsteknik som vore lite sämre, men som kunde appliceras på allt, eller åtminstone kan implementeras inom DX12, och inte bara en Nvidia tech-demo.
Och si, det finns. Men de uppskalningsmöjligheterna, som ger ganska OK resultat, pratar vi inte så mycket om. Undrar varför...

Enda anledningen att vi alls pratar om uppskalning på kraftfulla dedicerade GPU:er är att Nvidia vill att vi skall göra det (och för att raytracing kostar prestanda utan att ge så mycket tillbaka visuellt att det kompenserar en sänkning av upplösningen). Nvidia vill sälja en grafikfeature som krävs för att de skall kunna sälja en annan grafikfeature.

Intelligent uppskalning är ingen ny utmaning precis, det har varit stapelvara i stillbildsvärlden sedan digitalkamerorna gjorde entre, och för spel finns flera visuellt hyfsade lösningar som använts redan på den nuvarande/gamla konsolgenerationen som inte kräver något speciellt. DLSS är brutalt översålt, av de som har intresse av att sälja. Tekniken är vida relevantare för en framtida Nintendo Switch, en billig mobilkonsol (=definierad, låst plattform) som ändå förväntas driva spel på 70" TV-apparater, än för dedicerade PC-grafikkort.

Stödet för DLSS är något mer än 12 titlar och det kommer fler.

Anledningen att det pratas om DLSS är för att det ger en rejäl ökning i prestanda till liten eller ingen kostnad alls i bildkvalitet. Det blir så klart mest intressant i mer krävande spel, som när raytracing används. AMD har fortfarande inget svar på det vilket blir ett stort handikapp i spel som stödjer tekniken.

Intelligent uppskalning har knappast varit stapelvara sedan digitalkamerorna gjrode entre. Stapelvaran har snarare varit traditionella algoritmer, och då pratar vi alltså stillbilder. Nvidia är ensamma om att ha just "deep learning super sampling" till spel. Det är i princip en "intelligent" version av checkerboard rendering, med bättre resultat. Och sen när är inte bättre prestanda relevant för dedikerade grafikkort?

Permalänk
Skrivet av LastNinjas:

Jag har suttit och funderat på detta också en hel del, då jag har en 3440x1440 120hz skärm med endast Gsync och ingen Freesync. Har då funderat på om det är fel beslut att köra den med ett av de nya AMD korten.

Men om jag köper ett av AMD korten som presterar bäst, så bör jag ligga över 120FPS oavsett vad jag spelar i princip (om inte spelet i sig har problem tex inte är optimerat) , och finns det då behov av en sync teknologi?

Har en jättefin AW skärm som jag inte kommer byta ut på många år, så länge den håller, men det är just pga sync frågan som Nvidia fortfarande är med i matchen för mig som ett alternativ, hade det inte varit för detta så hadde det blivit AMD den här omgången.

Men som sagt, kommer Sync spela någon roll med ett av de topp presterande korten på en 3440x1440 120hz skärm?

Skulle vara jätteintressant om en av de otroligt många tech youtube kanalerna gjorde ett sånt test imo.

Det är helt upp till din egna preferens. Många, inklusive jag själv, tycker eliminering av screen tearing är lika värdefull som att ha flyt i lägre fps. Många som kör sync har överdimensionerad hårdvara och cappar fps till skärmens frekvens för att de ska få en jämn, slät upplevelse.

Visa signatur

Asrock Z490M-ITX/ac | i5 10600 | RTX 2060 FE | 16GB DDR4-3200 | Corsair SF450 | A-DATA SP900 128GB | Samsung 970 EVO 500GB | Noctua NH-L9i | Kolink Rocket

Permalänk
Medlem
Skrivet av Shiprat:

Allt detta är rätt irrelevant tills vidare- vad jag förstår koll directstorage ut som preview för utvecklare någon gång nästa år, och om de då börjar implementera direkt så är det väl ändå en bra stund innan spel kommer ut som är byggda för att faktiskt använda det. Så såvidare inte nvidia kör helt utan directstorage med en egen lösning som de kan leverera snabbare så är det inget som kommer gör skillnad någon gång snart, om jag inte missat något.

Jag har suttit och hållit mig från att köpa en pcie4 ssd i väntan på att se vad som kommer gälla för directstorage men känns som att när det väl börjar komma spel med det så har väl allt ändrats igen ändå typ.

Vad jag vet så har Microsoft redan gått ut med hastigheter som ska förväntas. Och det är väl bara verktygen till PC som förväntas komma 2021? Till konsol finns det väl redan?
Men ja, sak samma tills vi faktiskt har allt i våra datorer och kan använda det.

Permalänk
Medlem
Skrivet av magkliarn:

Det är helt upp till din egna preferens. Många, inklusive jag själv, tycker eliminering av screen tearing är lika värdefull som att ha flyt i lägre fps. Många som kör sync har överdimensionerad hårdvara och cappar fps till skärmens frekvens för att de ska få en jämn, slät upplevelse.

Men anledningen att man kör sync är att FPS varierar mycket eller dippar under max hz på skärmen?, om man har ett högpresterande kort som presterar mer än Hz/FPS cap på skärmen konsekvent så finns det inget kvar att synca?

Permalänk
Medlem
Skrivet av KplSteiner:

Senast jag körde AMD (typ tre-fyra år sen), så var drivrutinerna katastrof. Hur har de fungerat senaste åren?

För tre-fyra år sedan satt jag fortfarande med mitt 290X och det var aldrig några problem med drivarna till det från det att jag köpte det, någon månad eller två efter släppet, tills jag ersatte det för två år sedan. Helt problemfritt, superstabilt och fint.

Så jag vet inte vad du gjorde och stötte på som fick dig att dra slutsatsen att drivrutinerna var katastrof? Otur? SBS? eller lastfall jag aldrig stötte på vid ren Gaming kanske? Eller så körde vi helt enkelt väldigt olika spel.

Jag körde givetvis enbart drivrutinen, ingen annan krims krams jag inte behöver och jag gjorde en rensning med DDU varje gång innan jag uppgraderade drivrutinen vilket var typ 2-3ggr per år, max. Körde W7 hela tiden också, bytte aldrig till W10 under tiden jag hade 290X.

Nu på senare tid ska de vara bra vad jag vet. Var lite knöl när RDNA introducerades med 5000-korten men det ska vara ordnat vad jag vet. Syrran har ett 5700XT och hade lite problem med krascher i vissa spel men det ska vara åtgärdat vad jag vet iaf.

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 6900XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |