AMD presentererar RDNA 2 – Radeon RX 6000 och "Big Navi"

Permalänk
Medlem
Skrivet av LastNinjas:

Men anledningen att man kör sync är att FPS varierar mycket eller dippar under max hz på skärmen?, om man har ett högpresterande kort som presterar mer än Hz/FPS cap på skärmen konsekvent så finns det inget kvar att synca?

Jag körde utan när jag fick över 144Hz i spel. Det såg faktiskt värre ut att ha på freesync(g-sync compatible) i 144Hz.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Skrivet av Ratatosk:

Tror att det blir lite som med Tesselering, fläskar man på med RT, så att kortets RT-del storknar, kommer det att bromsa.
Sänker man RT ett steg, kommer det inte längre hänga på RT-delen, utan något annat.

När RT kom visade det sig att Nvida var betydligt kraftfullare på detta än AMD, AMD hade en dedikerat krets som man kunde få att storkna, Nvidia använde sina Cudakärnor för Tesselering.
Vi fick då ett par spel som använde Tesselering, så mycket att de blev nästan ospelbara på AMD, dessa spel ingick i Nvidias partnerskapsprogram, även prestandan på Nvida blev lidande, men det var det tydligen värt.

Vi då fick en slider i AMD:s drivrutiner, som kunde sänka Tesseleringen, utan att det blev någon påverkbar skillnad i kvalité, numera är Tesseleringen "AMD-optimerad" som standard.
Kommer nog få något liknande för RT, som förhindrar att Nvidia, via sitt partnerskapsprogram, försöker sig på en fuling även där.

Det där minns t.o.m jag som knappt kan stava till spel. Har för mig 16 va det värde man skulle dra ned till och default minns jag inte riktigt nu men det va bra mycket högre, 256?

Permalänk
Skrivet av LastNinjas:

Men anledningen att man kör sync är att FPS varierar mycket eller dippar under max hz på skärmen?, om man har ett högpresterande kort som presterar mer än Hz/FPS cap på skärmen konsekvent så finns det inget kvar att synca?

Det är den stora anledningen ja. Och en konsekvens av att framerate varierar mycket (oavsett om det är låg eller hög fps) är screen tearing. Det är dock klart mer märkbart i lägre fps.

Visa signatur

Asrock Z490M-ITX/ac | i5 10600 | RTX 2060 FE | 16GB DDR4-3200 | Corsair SF450 | A-DATA SP900 128GB | Samsung 970 EVO 500GB | Noctua NH-L9i | Kolink Rocket

Permalänk
Medlem
Skrivet av magkliarn:

Det är den stora anledningen ja. Och en konsekvens av att framerate varierar mycket (oavsett om det är låg eller hög fps) är screen tearing. Det är dock klart mer märkbart i lägre fps.

Men om FPSen varierar mycket men över skärmens Hz cap, så bör man kunna styra detta med att sätta en gräns på hur många FPS kortet ska skicka till skärmen? typ i mitt fall 120hz, sätt en max gräns på 120fps.

Permalänk
Skrivet av LastNinjas:

Men om FPSen varierar mycket men över skärmens Hz cap, så bör man kunna styra detta med att sätta en gräns på hur många FPS kortet ska skicka till skärmen? typ i mitt fall 120hz, sätt en max gräns på 120fps.

Du behöver någon form av sync för att bli av med screen tearing, framerate cap eller ej. Det behöver finnas något mellan gpu och skärmen som talar om när och i vilken takt bildrutorna ska genereras och visas. Nvidia kom ut med Fast Sync för ett tag sedan som var tänkt att lösa just det du beskriver men senast jag kollade var det underlägset G/Freesync i både input delay och faktisk bildupplevelse. Kan ha förbättrats sen dess. Här är en bra video som testar och visar skillnad på olika sync: https://youtu.be/L07t_mY2LEU?t=597

Visa signatur

Asrock Z490M-ITX/ac | i5 10600 | RTX 2060 FE | 16GB DDR4-3200 | Corsair SF450 | A-DATA SP900 128GB | Samsung 970 EVO 500GB | Noctua NH-L9i | Kolink Rocket

Permalänk
Medlem
Skrivet av CubaCola:

edit: ja, vi pratar olika språk, men menar nog samma. ja renderar en lägre upplösning.

Precis! Antagligen så gör vi det

Skrivet av CubaCola:

Det är som sagt det här som Xbox One och PS4 har gjort ett bra tag.
Dynamic resolution kallas det väl då, att när scenen blir intensiv så går upplösningen ner.

Bättre bild är väl objektivt. Skulle vilja säga att bilden försämras, men att frameraten bibehålls så gott det går.
Och händer det mycket på skärmen så kanske det blir svårt att se att bildkvaliteten blev sämre, så att det inte upplevs lika illa som det faktiskt är.

Vi kan antagligen aldrig se försämringen ändå då det sker i passager där mycket flyttas på skärmen.

AMD nämner att dagens LCD skärmar ändå inte hinner med och med det genom eftersläpning försämrar bilden, så i praktiken är det maskerat i hur en LCD skärm fungerar och dess begränsning.

Skrivet av CubaCola:

sedan har ju Playstation sin "DLSS" teknik som kallas för checkerboard rendering, där man har tex en 1440P bild som skalas upp till 4k utan jätteförluster i bildkvalitet.
Och Insomniac har en egen DLSS-lösning också.

Olika tekniker som angriper ett gemensamt problem på olika sätt men med likvärdigt slutresultat.

Lite av charmen med teknik

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av Nekrol:

Vad jag vet så har Microsoft redan gått ut med hastigheter som ska förväntas. Och det är väl bara verktygen till PC som förväntas komma 2021? Till konsol finns det väl redan?
Men ja, sak samma tills vi faktiskt har allt i våra datorer och kan använda det.

Ja visst, men jag är osäker på vad för fördel man kan känna sig säker på för ena sidan av något som kommer finnas någon gång i framtiden. Ja till konsol finns det redan, men det kvarstår att se om ett spel på PS5/XSX med directstorage kommer ta med sig det till PC garanterat, eller om dessa hastigheter som nämns är något som kommer göra faktiskt skillnad.

Teknologin i sig är lovande, jag känner dock att varken AMDs grund i detta med konsoler eller Nvidias RTX I/O är något man kan hänga i julgranen nu.

Vad du sa ursprungligen: "Även om Nvidia inte får ut den prestanda som utlovats så kommer det fortfarande vara snabbare med RTX I/O." känner jag är ungefär lika obefogat som om jag skulle säga att jag kommer sälja en modifierad Ford Fiesta 2022 som har tre extra växlar vilket låter den köra i upp till 400km/h. Tekniskt sett sant- utan bevis att den faktiskt kan framföras i 400km/h så är det bara siffror på internet.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av magkliarn:

Du behöver någon form av sync för att bli av med screen tearing, framerate cap eller ej. Det behöver finnas något mellan gpu och skärmen som talar om när och i vilken takt bildrutorna ska genereras och visas. Nvidia kom ut med Fast Sync för ett tag sedan som var tänkt att lösa just det du beskriver men senast jag kollade var det underlägset G/Freesync i både input delay och faktisk bildupplevelse. Kan ha förbättrats sen dess. Här är en bra video som testar och visar skillnad på olika sync: https://youtu.be/L07t_mY2LEU?t=597

Ok jag har svårt att förstå det rent tekniskt, om jag sätter en cap på mitt grafikkort på att bara skicka 120FPS till min 120hz skärm samtidigt som graffikkortet hela tiden har kapacitet att producera bra mycket högre FPS än så så borde det inte bli sync problem imo.

Men nu är jag inte så tekniskt insatt i skärmteknik, utan det känns som en bro theory, åt det logiska hållet mer.

Är det inte det här Gsync gör i princip ändå, att den matchar antal FPS generat ifrån grafikkortet och sen justerar den HZen på monitorn utefter det.

Förstår inte riktigt vad skillnaden då skulle vara.

Permalänk
Skrivet av LastNinjas:

Ok jag har svårt att förstå det rent tekniskt, om jag sätter en cap på mitt grafikkort på att bara skicka 120FPS till min 120hz skärm samtidigt som graffikkortet hela tiden har kapacitet att producera bra mycket högre FPS än så så borde det inte bli sync problem imo.

Men nu är jag inte så tekniskt insatt i skärmteknik, utan det känns som en bro theory, åt det logiska hållet mer.

Är det inte det här Gsync gör i princip ändå, att den matchar antal FPS generat ifrån grafikkortet och sen justerar den HZen på monitorn utefter det.

Förstår inte riktigt vad skillnaden då skulle vara.

Då föreslår jag att du kollar på hela den videon jag länkade, han gör mycket bra innehåll och förklarar det hela pedagogiskt

Visa signatur

Asrock Z490M-ITX/ac | i5 10600 | RTX 2060 FE | 16GB DDR4-3200 | Corsair SF450 | A-DATA SP900 128GB | Samsung 970 EVO 500GB | Noctua NH-L9i | Kolink Rocket

Permalänk
Lyxfällan 🎮

AMD och Codemasters har lagt upp en video där de sistnämnda går igenom hur de använder moderna tekniker (i RDNA 2 så klart med tanke på AMD:s kanal) i racingspelet Dirt 5, som släpps till PC, nuvarande och nästa generations spelkonsoler. Dirt 5 ser för övrigt trevligt ut både visuellt och spelmässigt, kan nog bli en investering där.

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Medlem
Skrivet av DasIch:

Stödet för DLSS är något mer än 12 titlar och det kommer fler.

Anledningen att det pratas om DLSS är för att det ger en rejäl ökning i prestanda till liten eller ingen kostnad alls i bildkvalitet. Det blir så klart mest intressant i mer krävande spel, som när raytracing används. AMD har fortfarande inget svar på det vilket blir ett stort handikapp i spel som stödjer tekniken.

Intelligent uppskalning har knappast varit stapelvara sedan digitalkamerorna gjrode entre. Stapelvaran har snarare varit traditionella algoritmer, och då pratar vi alltså stillbilder. Nvidia är ensamma om att ha just "deep learning super sampling" till spel. Det är i princip en "intelligent" version av checkerboard rendering, med bättre resultat. Och sen när är inte bättre prestanda relevant för dedikerade grafikkort?

Därför att om man pyntar upp 8-9000 pix för ett av världens snabbaste grafikkort idag kan man tycka att den inte skall behöva köra uppskalning alls. Då kanske man använder i grunden fel rendreringsmetod.
Men, men. Man kan ha olika åsikter.

Det här är i alla fall intressant för branschen:

Permalänk
Medlem
Skrivet av Zemlan:

För tre-fyra år sedan satt jag fortfarande med mitt 290X och det var aldrig några problem med drivarna till det från det att jag köpte det, någon månad eller två efter släppet, tills jag ersatte det för två år sedan. Helt problemfritt, superstabilt och fint.

Så jag vet inte vad du gjorde och stötte på som fick dig att dra slutsatsen att drivrutinerna var katastrof? Otur? SBS? eller lastfall jag aldrig stötte på vid ren Gaming kanske? Eller så körde vi helt enkelt väldigt olika spel.

Jag körde givetvis enbart drivrutinen, ingen annan krims krams jag inte behöver och jag gjorde en rensning med DDU varje gång innan jag uppgraderade drivrutinen vilket var typ 2-3ggr per år, max. Körde W7 hela tiden också, bytte aldrig till W10 under tiden jag hade 290X.

Nu på senare tid ska de vara bra vad jag vet. Var lite knöl när RDNA introducerades med 5000-korten men det ska vara ordnat vad jag vet. Syrran har ett 5700XT och hade lite problem med krascher i vissa spel men det ska vara åtgärdat vad jag vet iaf.

Kanske var att jag spelade för nya spel för att drivrutinerna skulle kunna komma ut, men har aldrig haft problem med NVidia. Men om ingen annan känner igen sig, så kan jag lugnt köra AMD både på cpu och gpu nu framöver, känns bra.

Permalänk
Avstängd
Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem
Skrivet av davidl22:

Nyss införskaffat mig en G-SYNC skärm... Ska man lämna tillbaks och byta ut mot en AMD freesync nu? När nästan GPU man köper troligtvis kommer vara en AMD.

Förövrigt så är jag lättad att AMD äntligen hänger med i spelet när det kommer till graffekort. Hoppas det sätter press på Nvidia så att deras nästa generation kort kommer ha en högre prisvärdhet än som det ser ut nu.

I would for sure. I'm regretting getting a g-sync last Xmas. Doh. Great screen but the selection of g-sync compatible ones is pretty good from my half arsed search.

Visa signatur

>>X3D o sval=yeet^2!

Permalänk
Medlem

Vill nog gärna se "opartiska" recensioner innan jag ropar hej. Men är 6900XT i paritet med 3090 i spel och program så varför inte. Men 999 blir väl 12-13000 i Sverige gissar jag med skatter och pålägg på påläggen.

Visa signatur

Här sitter jag och känner in rummet och spelar dataspel.

Permalänk
Medlem
Skrivet av BooliBoo:

Vill nog gärna se "opartiska" recensioner innan jag ropar hej. Men är 6900XT i paritet med 3090 i spel och program så varför inte. Men 999 blir väl 12-13000 i Sverige gissar jag med skatter och pålägg på påläggen.

2080Ti för $999 sträckte sig väl från 12000-16000kr beroende på kort så 6900XT lär vara liknande.

Permalänk
Medlem
Skrivet av loevet:

AMD och Codemasters har lagt upp en video där de sistnämnda går igenom hur de använder moderna tekniker (i RDNA 2 så klart med tanke på AMD:s kanal) i racingspelet Dirt 5, som släpps till PC, nuvarande och nästa generations spelkonsoler. Dirt 5 ser för övrigt trevligt ut både visuellt och spelmässigt, kan nog bli en investering där.

https://youtu.be/ivvlPccdlmc

Haha fin slutkläm med att man får bäst upplevelse på Radeon-kort.
Stör mig lite på hur de marknadsför mesh shaders, VRS och i princip alla "funktioner" RDNA har. Allt det här är ju sånt som redan har varit tillgängligt för utvecklare i typ, 2 år?

Permalänk
Medlem
Skrivet av Zemlan:

Kan ju bara tala för mig själv samt alla polare som kört både AMD och Nvidia dessa senaste "5-8 åren" visserligen men....Det har fungerat mer eller mindre alldeles utmärkt för oss alla. Kan inte säga att vi föredrar ena eller andra faktiskt. Båda har vart bra. Anekdotisk bevisföring förvisso men ni får ta det för vad det är.

Syrran och kusinen hade båda 670 under några år och syrran stötte på flera problem med det och kusinen fick muslagg han inte kunde få bort mot slutet och fick byta till ett begagnat 7979 och då var problemet bortblåst. Syrrans nya 5700XT hon köpte förra hösten led av krascher i vissa spel men det är löst nu såvitt jag vet.

Men jag och mina polare samt brorsan har inte haft några problem alls. Så det är alla problem vi stött på inom mina närmsta kretsar och vi har kört en hel del olika kort genom åren: 2x GTX670, 4x HD7970, 1x R9 290X, 1x R9 Fury, 1x RX480, 1x GTX 1070 och 2x GTX 1080ti.

Kan visserligen tillägga att ingen av oss installerar saker som Geforce experience eller motsvarande från AMD utan bara drivrutinen och vi gör generellt rena installationer med DDU när vi byter drivrutin. Vi spelar med korten och gör inget annat alls. Så all övrig fluff de erbjuder som shadowplay och allt vad det heter är helt ointressant för oss.

Att AMD stötte på lite problem med en helt ny arkitektur när de övergav GCN till förmån för RDNA är allvarligt talat inget konstigt i mina ögon. Det är ett stort hopp att göra det bytet. Men de verkar ha fått ordning på det snabbt vad jag vet. Så 6000-serien är inget jag är orolig för att uppgradera till i varje fall.

Lutar åt 6900XT för min del tex. Ville gärna ha lite mer än 3080 kunde erbjuda och 3090 är uppåt väggarna för dyrt. Men 6900XT ligger okej till tycker jag. Men jag vill se tester på allt så köper jag något under början av nästa år mest sannolikt. Men utesluter inte 3080 eller 6800XT heller.

*edit* Kan också tillägga att raytracing känns fortsatt ointressant för mig iaf. Inför nästa konsolgeneration blir det nog aktuellt. Men sålänge konsolerna förlitar sig på vanlig prestanda kommer det gälla PC också och raytracing förblir lite mer påklistrat.

Det köper jag, då har jag hört lite positivt om AMD. Det har liksom inte varit så aktuellt så har inte lagt närmare tanke vid just detta, men det är min personliga känsla med de AMD 4770, (tror 5870), 5970, 7970 och något troligen något mer som är ännu äldre och jag ej minns namnet på. Har inte alltid varit toknöjd med Nvidia (för att uttrycka sig milt) men de 8800GT 512MB, GTX 690, GTX 1080 och RTX 2080 Super och säkert något jag missar nu har känts aningen varmare om hjärtat.

Btw, personligen tycker jag att Geforce Experience är OTROLIGT bra och smidigt, speciellt numera när det slipats på ett tag och drar minimalt med prestanda, om ens någon hehe. Bara att utan någon speciell setup (mer än någon minut) kunna spela in i väldigt bra kvalitet osv om man vill visa någon lite snabbt utan redigering hur man gör något på datorn (aka föräldrar runt 60-årsstrecket) och dylikt. Situationer där .GIF blir för otympligt. Det tycker jag är guld värt.

Men de absoluta två guldkornen enligt mig är automatiskt save av vissa highlights i spel som stödjer det och att du kan lägga på aktiva filter separat spel för spel och ändra och tweaka det in-game. Jag spelar nästan enbart FPS-spel där det är viktigt att kunna urskilja folk och det går ärligt talat knappt att spela med CoD:MW/WZ standardinställningar då de är så urusla. Nej, där krävs det att sänka högdagrar så man inte blir lika bländad om man siktar mot hustak med ljushimmel, lite extra saturation för att urskilja färgade karaktärer lite lättare, ett skärpefilter och ja lite sådant i den stilen. Typ alla jag hjälp fixa med det har kommit några dagar efter och sagt tack, då det verkligen gör enorm skillnad i vissa spel mer än andra.

Jag rekommenderar att ge det ett snabbt test nu igen om du har 5 minuter över någon gång. Finns massa guider för "bäst" inställningar på YouTube. Eller så är våra bakar helt enkelt väldigt delade...

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 3080 12GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD | Synology DS920+ w/20GB RAM SHR 48TB | Seagate IronWolf 10TB HDD intern HDD
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto
: Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Skrivet av LastNinjas:

Men anledningen att man kör sync är att FPS varierar mycket eller dippar under max hz på skärmen?, om man har ett högpresterande kort som presterar mer än Hz/FPS cap på skärmen konsekvent så finns det inget kvar att synca?

G- sync fungerar inte över skärmens HZ, då tar V sync över med ännu högre latencer än vad G- sync har, man kan stänga av V- sync i Nvidias kontroll panel men då fungerar inte G- sync som den ska fullt ut.
Jag har alltid kört med G- sync av och låser istället spelet i det lägsta som den dippar ner till ( inte någon random spike).
Tex COD ligger mellan 145-155 fps på min maskin (i 1440p) då låser jag spelet i 140fps på min 144HZ skärm. Jag gör så av två anledningar, G sync ger input lag och oavsett sync man använder så ökar eller minskar input lag när fps går upp och ner (om man inte låser fps), det ger mig ett ojämn flyt när det kommer till att sikta då fördröjningen i spelet varierar.
Att ha högre HZ på skärmen än vad kortet spottar ut är bara en fördel som sänker input lag mera.

G- sync,freesync är en smaksak och visst kan det vara bra i en del spel där man har låga eller hoppande fps,där man spelar själv och input lag inte spelar någon roll, men själv märker jag inte av screen tearing vid högre fps (runt 75-80 och över) och tycker även att låsa spelet eliminerar det ännu mer (om jag sett någon).

Visa signatur

Färdiga projekt The legacy of king Khufu.
https://www.sweclockers.com/galleri/2346-the-legacy-of-king-k...
Noctua ramkylare i aluminium: https://youtu.be/JmzCWlq3FKA
Chassie kylning: https://youtu.be/muxjWN7avwA

Permalänk
Medlem
Skrivet av Kaleid:

Källan till detta är min frus broders svägerskas systers mans kusins kusinbarn.

”en medlem på användarens Discord-server ska ha genomfört samma test med sitt Geforce RTX 3080 TUF från Asus”

Med det sagt ej falskt eller sant men vi vet redan om att AMD+RT är inte en match, dock kommer det ”mer” för just RT i senare drivrutiner vilket jag har för mig de sa på releasen igår (?).

Visa signatur

Har numera en Laptop från gigabyte.

Permalänk
Medlem
Skrivet av Banco:

https://www.elgiganten.se/product/datorer-tillbehor/datorkomp...

Det har ju inte direkt vart svårt att ställa sig i kö på kort för utgångspriset. Att få kortet å andra sidan...

Ja i 60 dagar men tror faktiskt kortet skall säljas längre en så

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av loevet:

AMD och Codemasters har lagt upp en video där de sistnämnda går igenom hur de använder moderna tekniker (i RDNA 2 så klart med tanke på AMD:s kanal) i racingspelet Dirt 5, som släpps till PC, nuvarande och nästa generations spelkonsoler. Dirt 5 ser för övrigt trevligt ut både visuellt och spelmässigt, kan nog bli en investering där.

https://youtu.be/ivvlPccdlmc

Förlåt om jag låter jättegnällig men det där ser ut som ett 5 år gammalt arkadspel. Hjulspår i snön fanns redan i Collin Mcrae 2. Hoppas inte det där ska representera AMDs nära framtid inom grafikteknologi.

Permalänk
Medlem

blir ett rx 6800xt för mej iallafall 🙂👍

Visa signatur

In science we trust!

Permalänk
Medlem
Skrivet av Ratatosk:

Tror att det blir lite som med Tesselering, fläskar man på med RT, så att kortets RT-del storknar, kommer det att bromsa.
Sänker man RT ett steg, kommer det inte längre hänga på RT-delen, utan något annat.

När Tesselering kom visade det sig att Nvida var betydligt kraftfullare på detta än AMD, AMD hade en dedikerat krets som man kunde få att storkna, Nvidia använde sina Cudakärnor för detta.
Vi fick då ett par spel som använde Tesselering, så mycket att de blev nästan ospelbara på AMD, dessa spel ingick i Nvidias partnerskapsprogram, även prestandan på Nvida blev lidande, men det var det tydligen värt.

Vi då fick en slider i AMD:s drivrutiner, som kunde sänka Tesseleringen, utan att det blev någon påverkbar skillnad i kvalité, numera är Tesseleringen "AMD-optimerad" som standard.
Kommer nog få något liknande för RT, som förhindrar att Nvidia, via sitt partnerskapsprogram, försöker sig på en fuling även där.

Lite det man är orolig för, även fast exempelvis cyberpunk 2077 är byggt på dx12 så borde det vara lugnt då det kommer ha DXR. Minns så väl tesselering, amd hade det på sina hd 5000 serie kort.

Visa signatur

Ryzen 7 5800x, lg 27gl850, rx 7800 xt

Permalänk
Medlem
Skrivet av EntropyQ3:

Därför att om man pyntar upp 8-9000 pix för ett av världens snabbaste grafikkort idag kan man tycka att den inte skall behöva köra uppskalning alls. Då kanske man använder i grunden fel rendreringsmetod.
Men, men. Man kan ha olika åsikter.

Det här är i alla fall intressant för branschen:
https://forums.macrumors.com/attachments/4846c4db-e1f0-4a6f-b3b1-5e7e1b0cb99d-jpeg.975891/

Det är ett märkligt sätt att se det. Vi är liksom inte ett läge av ohemul prestanda som ingen riktigt vet vad man ska göra av. Genom DLSS kan vi få mer krävande grafik, högre upplösningar eller fler bilder per sekund. Det ger också mer än att försöka göra det genom ren brute force.
Tekniken är helt lysande och då har vi alldeles nyligen fått version 2.0. Inom klart överskådlig tid lär den bli både bättre och en självklarhet för spel. Det här ser dessutom ut att bli en Akilles-häl för AMD.

Frågan är ju rätt enkel egentligen. Om vi bortser från att dina favoritspel just nu saknar stöd för DLSS, eller kanske kör på den äldre och sämre versionen, skulle du inte vilja ha en signifikant prestandaökning utan att behöva kompromissa bildkvalitet? DLSS är förvisso inte alltid perfekt men det är riktigt bra och ibland rentav bättre än originalupplösningen, så jag tycker "utan kompromisser" är hyfsat rättvist ändå (om vi snackar DLSS 2.0 alltså).

Vore för övrigt kul om Apple och Nvidia kunde bli kompisar igen så jag kan köra Mac OS med Nvidia-kort...

Permalänk
Avstängd
Skrivet av Izenoz:

Källan till detta är min frus broders svägerskas systers mans kusins kusinbarn.

”en medlem på användarens Discord-server ska ha genomfört samma test med sitt Geforce RTX 3080 TUF från Asus”

Med det sagt ej falskt eller sant men vi vet redan om att AMD+RT är inte en match, dock kommer det ”mer” för just RT i senare drivrutiner vilket jag har för mig de sa på releasen igår (?).

Det är inte speciellt trovärdigt att man skulle hemlighålla bra prestanda eller hur? Hade man ens haft liknande prestanda så hade man nämnt det.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem

Min budget för ett nytt grafikkort ligger på ~6000kr så då är det rx6800 som gäller då... Hade nog velat sikta på 6800xt då det är väldigt mycket mer grafikkort för den skillnaden i pris. Men en budget är ju en budget. Sen har vi bekymret med att XT-korten är 2,5 slot och det passar ju inte i mitt Ghost S1.
Kanske säljer mitt chassi för att ha råd med grafikkortet 😅

Kan nog hålla ut till black friday, då möjligtvis att man kan spara några hundralappar på sitt köp. Och så har gamernecus hunnit gå igenom de flesta kylarna så man vet vad som är bra.

Permalänk
Medlem
Skrivet av ottoblom:

Ja i 60 dagar men tror faktiskt kortet skall säljas längre en så

Kommer FE höjas också?

Visa signatur

Råd tas på eget ansvar.

Permalänk
Medlem

Budgetar är ju till för att överskridas. Bara inte med för mycket. Black friday lär ju va tokkass i år. Taskig timing

Fråga angående VR benchmarks. Vilka AMD recensenter har för vana testa VR prestanda... Det ekade totalt tomt under 3080 launchen det var absolut fascinerande att se hur alla vandrade runt denna extremt gpu krävande arena.

nvidia släpper DLSS 2.1 men cynikern i mig säger att inget spel kommer någonsin stödja den funktionen ändå så vete gudarna om inte rå vr prestanda ändå kommer värderas viktigare. Kommer sitta mycket med äldre lir som DCS och flight simulator misstänker jag samt diverse äldre racingsimulatorer. Rör mig i arenor som sällan har den senaste tekniken... Men jag tvivlar ju på att vi kommer få några vr benchmarks innan 18:e och än mindre en jämförelse med 3080 på samma system.

Visa signatur

Corsair A850W
Intel I7-7700K Kaby Lake
Asus Z270H GAMING
16 gb RAM
msi 3080 suprim x

Permalänk
Medlem

@Kaleid
Det handlar knappast om trovärdighet, det är en helt annan sak, AMD’s ”nya” linje är att de kör raka rör med hur korten presterar likaså cpu’erna.

Ordet som däremot kan användas i rätt sammanhang är väl ”skäms”, de har dålig prestanda i RT men som skriver är det ingen hemlighet, det kan bara bli bättre på den punkten?

Oavsett så är RT för mig inget jag reflekterar över men att avfärda nya serien enbart på RT är rent löjligt.

Skrev i en annan tråd att med alla tre delar tillsammans är blir det en väldigt bra maskin som många ÅF snabbt kommer göra byggen på, det kommer säljas till entusiaster likaså ungdomar och föräldrar som inte har största kollen på vad som är bäst. Som säljare är detta rena drömmen, med eller utan RT kommer det säljas.

Gick lite ifrån ämnet nu men helhetsmässigt är RT inte det som säljer, prestandan säljer och det gäller oavsett bransch. Ett snyggt yttre kontra prestanda/krona, där är guldkon.

Men det är bara vad jag erfar, tycker och tror, lägger mig platt om 3-9 månader om jag har fel OCH bjuder dig på valfri dryck 😉

Visa signatur

Har numera en Laptop från gigabyte.