AMD presentererar RDNA 2 – Radeon RX 6000 och "Big Navi"

Permalänk
Medlem

Om man har ett 3080(Eagle OC för 7825kr) liggandes hos ombudet, G-sync skärm och tänkt att spela i 1440p kan man med gott samvete hämta ut och behålla det va? Nätagg och chassi klarar effekt/värme..

Permalänk
Medlem

Om dom nu blir så bra som det verkar så är det makalöst hur AMD har återhämtat sig...

Visa signatur

R7 5800X3D | MSI X470 GAMING PLUS | 32GB 3200MHz CL16 | Powercolor Radeon RX 5700XT 8GB Red Dragon | Samsung 850 EVO 500GB | Samsung 860 EVO 1TB | Kingston A2000 1TB | 2x 3TB HDD | Seasonic FOCUS Plus 650W Gold

Permalänk

Och begagnad 2080Ti tappade två lök i värde.

Permalänk
Viking
Skrivet av wargreymon:

Hur menar du att du inte kan använda en G-sync skärm alls med ett AMD-kort? Man kan bara inte använda G-sync delen för att AMD inte implementerat det (vill minnas att det är upp till dem att stödja det faktiskt). Annars kommer nya G-sync skärmar med Freesync också.

Har du en AMD CPU I framtiden och den ger dig upp till 13% extra när du väljer ett AMD grafikkort så är det väl samma sak som att en G-sync skärm bara ger G-sync med ett Nvidia-kort. Samma så låser man från att köpa Intel för man får mer prestanda med en AMD-kombo.

Ska bli intressant att se om Intel gör samma sak i framtiden. Är ju fritt fram nu när AMD börjat med det.

Du fattar vad jag menar. Men använder man skärmen till att spela så är det givet att använda någon av synkteknikerna. Stödjer skärmen inte freesync blir du ju därför "låst" till Nvidia. Men att du får några procent extra prestanda spelar inte alls lika stor roll. Om en vecka så bör alla köpa AMD-cpu:er (då de är bäst på allt, förutom överklockning), menar du då att alla blir låsta till AMD-GPU? Nej, det menar du ju inte.

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | LG OLED 27GS95QE 240Hz

Permalänk
Medlem

Om detta är ett riktigt vattenblock EK gjort och inte bara ett förslag på vad ett block kan se ut som av AMD så sign me upp pronto!!!

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Viking
Skrivet av cyklonen:

Snarare är det nog folk som felaktigt använder "du" i stället för "man", kanske pga inflytande från engelskan.

Jo, så är det ju såklart. Men sedan hade han citerat fel person vilket inte hjälpte...

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | LG OLED 27GS95QE 240Hz

Permalänk
Medlem
Skrivet av Shiprat:

Det är ju inte riktigt samma sak eller? Några procent möjligen i prestanda är inte samma sak som att betala för en funktion som bokstavligt talat inte kan användas med annat märke?

Oavsett så verkar detta vara något kommer ur AMD's konsolutvecklande, möjligen iallafall. Med tanke på att det handlar om att kombinera features av både cpu eller gpu- vad menar du då att de borde göra? Ska de erbjuda Intel licens för att implementera något i sina cpus för att arbeta med radeon kort, och sedan erbjuda nvidia licens för att implementera en likadan cache i sina kort? Eller ska de ge dem infon gratis och låta Intel och nvidia delar av AMD's hårdvarudesign i sina produkter?

Borde då Intel ha gjort sig möda att lösa det så att man kan använda optane med AMD? Kanske nvidia borde delat med sig av sina tensor cores så AMD kunde köra DLSS?

G-Sync är fånig eftersom det kräver en FPGA extra mellan dator och skärm som 1. Kostar pengar och 2. Låser funktioner som skulle ha kunnat implementerats öpptet.
Detta medan freesync finns vilket låter det hela var hårdvaruagnostiskt och ger samma funktioner utan att ha en dyr och onödig FPGA mellan.
Det är skillnad att övertala andra tillverkare att implentera något som exkluderar dina konkurrenter och att implentera något som låter dig förbigå flaskhalsar mellan en tillverkaresegna produkter för att få bättre prestanda.

Jag vill faktiskt minnas att Nvidia låter andra köpa licens för att implementera G-sync i sina grafikkort. Så ja, det tycker jag de borde göra i så fall. AMD låser ju detta till sig självt. Vad säger att de inte fortsätter med detta i framtiden? Ena så kan man argumentera att allt ska vara öppet, eller så ska allt som låser mot sitt egna kritiseras. Att säga att AMD inte gör något fel är bara hyckleri.

Att du inte förstår hur G-sync modulen fungerar när du säger att den är fånig och onödig orkar jag inte gå in på. Om den nu är onödig, varför är Freesync sämre? Du verkar smart nog att kunna läsa på själv.

Skrivet av Donnerstal:

Du fattar vad jag menar. Men använder man skärmen till att spela så är det givet att använda någon av synkteknikerna. Stödjer skärmen inte freesync blir du ju därför "låst" till Nvidia. Men att du får några procent extra prestanda spelar inte alls lika stor roll. Om en vecka så bör alla köpa AMD-cpu:er (då de är bäst på allt, förutom överklockning), menar du då att alla blir låsta till AMD-GPU? Nej, det menar du ju inte.

Om några år när de utvecklat detta mer, 10,20,30%? Om Intel får ordning på sina tillverkningstekniker och är bättre, men en AMD CPU boostar ditt grafikkort? Vad tror du folk väljer då? Jag menar inte att alla blir låsta, men det är en morot som lätt kan skena iväg mot något väldigt låst. 13% är ju skillnaden mellan 3080 och 3090 i spel.

Permalänk
Medlem
Skrivet av wargreymon:

Hur menar du att du inte kan använda en G-sync skärm alls med ett AMD-kort? Man kan bara inte använda G-sync delen för att AMD inte implementerat det (vill minnas att det är upp till dem att stödja det faktiskt). Annars kommer nya G-sync skärmar med Freesync också.

Har du en AMD CPU I framtiden och den ger dig upp till 13% extra när du väljer ett AMD grafikkort så är det väl samma sak som att en G-sync skärm bara ger G-sync med ett Nvidia-kort. Samma så låser man från att köpa Intel för man får mer prestanda med en AMD-kombo.

Ska bli intressant att se om Intel gör samma sak i framtiden. Är ju fritt fram nu när AMD börjat med det.

Förstår inte var du får allt detta ifrån. G-Sync har aldrig varit öppet för AMD att implementera såvidare du inte har någon slags insiderinfo någonstans ifrån, nvidia hade alltid alternativet att implementera freesync dock, vilket de till slut gjorde. Vad nvidia dock har sagt är att de ska låsa upp vissa tidigare G-Sync monitors via firmware för att stöjda den öppna standarden för HDMI-VRR, vilket AMD inte har stöd för än med några GPUs som är på marknaden vad jag vet, de har dock gått ut tidigare med att de ska stödja det. Därmed kan det tänkas att AMD-kort kommer tillåtas köra HDMI-VRR på vissa G-Sync skärmar. Notera att alla freesync skärmar kan köras med Nvidias kort även om de envisas med en lista över "certifierade" skärmar.

Om det nu var så att AMD krävde att tillverkare av skärmar eller andra tillbehör stoppade in en Altera Arria till extra kostnad i sina produkter för att erbjuda lite bättre performance bara med AMD, eller att de krävde att du var tvungen att köra all-AMD för att köra HDMI-VRR, ja då vore det liknande gsync vs freesync.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem

Smart Access Memory verkar intressant. 16GB istället för 256MB finns det säkert många skickliga utvecklare som kan göra allt möjligt fantastiskt med framgent.

Visa signatur

Citera för svar :)

Permalänk
Medlem
Skrivet av wargreymon:

Hur menar du att du inte kan använda en G-sync skärm alls med ett AMD-kort? Man kan bara inte använda G-sync delen för att AMD inte implementerat det (vill minnas att det är upp till dem att stödja det faktiskt). Annars kommer nya G-sync skärmar med Freesync också.

Nej, tvärt om har det alltid varit Freesync (Vesa adaptive sync) som varit en öppen mjukvarubaserad standard som vem som helst kunnat implementera.
G-sync har alltid bara varit låst till nvidia och inte tillgänglig för någon annan

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av wargreymon:

Jag vill faktiskt minnas att Nvidia låter andra köpa licens för att implementera G-sync i sina grafikkort. Så ja, det tycker jag de borde göra i så fall. AMD låser ju detta till sig självt. Vad säger att de inte fortsätter med detta i framtiden? Ena så kan man argumentera att allt ska vara öppet, eller så ska allt som låser mot sitt egna kritiseras. Att säga att AMD inte gör något fel är bara hyckleri.

Skulle definitivt vilja be om en källa om detta licensavtal- var såg du det?

Jag hänger inte med- du tycker att G-Sync är bra fast det är låst.
Du tycker att Smart Access Memory är dåligt därför att.... Det är låst.

Är inte båda lika dåliga isåfall?
Jag håller med att det är dåligt att låsa in folk genom att låsa features- det är ju inte riktigt vad som händer här dock- ditt kort presterar inte sämre utan detta, du tappar inte funktion utan detta.

Skrivet av wargreymon:

Att du inte förstår hur G-sync modulen fungerar när du säger att den är fånig och onödig orkar jag inte gå in på. Om den nu är onödig, varför är Freesync sämre? Du verkar smart nog att kunna läsa på själv.

Jag förstår hyfsat bra hur G-Sync fungerar men om du tror att jag inte förstår och du själv förstår väldigt bra så kan du garanterat få tyst på mig genom att förklara eller erbjuda länkar för jag är alltid villig att bli motbevisad. Vi kan börja med en enkel fråga- om det krävs en FPGA för VRR, hur kommer det sig att HDMI-VRR ska kunna fungera utan en FPGA? Och exakt vad är det man förlorar genom att köra freesync istället för G-Sync?

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Viking
Skrivet av wargreymon:

Om några år när de utvecklat detta mer, 10,20,30%? Om Intel får ordning på sina tillverkningstekniker och är bättre, men en AMD CPU boostar ditt grafikkort? Vad tror du folk väljer då? Jag menar inte att alla blir låsta, men det är en morot som lätt kan skena iväg mot något väldigt låst. 13% är ju skillnaden mellan 3080 och 3090 i spel.

Haha, okej, nu snackar vi år. Hade man fått 30% mer prestanda av att kombinera AMD med AMD skulle jag kunna kalla det för att "låsa" sig med AMD. Men skulle det gynna en så pass mycket hade det varit något positivt, men att bli låst med Nvidia utan några fördelar är nu inte samma sak då det är negativt.
Sen att det är upp till 13% är nog inget vi kommer se mycket av då det bara är i ett spel.

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | LG OLED 27GS95QE 240Hz

Permalänk
Medlem

Ett 6800 med säg 10 eller 12GB, borde kunna få riktigt najjan pris va? Var helt inne på att byta här innan jul, men kanske avvaktar ett tag till och ser va som händer i priskriget efter ett tag

Visa signatur

Desktop: i7-12700K | Asus Prime Z690-P D4 WIFI | EVGA RTX 3070 FTW3
Kingston Fury 32GB 3600MHz | ASUS ROG Strix 1000W | WD Black SN750 2TB
Fractal Design Meshify 2 Compact | Monitor: LG 27GL850

Permalänk
Skrivet av wargreymon:

Jag vill faktiskt minnas att Nvidia låter andra köpa licens för att implementera G-sync i sina grafikkort. Så ja, det tycker jag de borde göra i så fall. AMD låser ju detta till sig självt. Vad säger att de inte fortsätter med detta i framtiden? Ena så kan man argumentera att allt ska vara öppet, eller så ska allt som låser mot sitt egna kritiseras. Att säga att AMD inte gör något fel är bara hyckleri.

Att du inte förstår hur G-sync modulen fungerar när du säger att den är fånig och onödig orkar jag inte gå in på. Om den nu är onödig, varför är Freesync sämre? Du verkar smart nog att kunna läsa på själv.

Nja, det är AMD(Vesa egentligen) låter både intel och nvidia lägga in "freesync" då det ingår i någon Vesa DP standard. G-sync är proprietär till NVIDIA, Freesync/Vesa Adaptive sync är fritt att använda vad jag vet.

Så nej, nvidia låter inte andra använda det.

Jag gillar öppna standarder och är helt klart för det. Men Nvidia handlingar har fått mig att acceptera proprietära till större del än innan.

Tycker det är helt okey av AMD att ta fördel av sina divisioner för att skapa sig en fördel. Nvidia har gjort det i år, så why not lixom numera.

bara kolla på PhysX, förr var det ett separat kort du stoppade i din dator och du fick häftigare effekter i spel. nvidia köpte upp Ageia och låste det till sig själva och inte ge andra möjligheten.

Samma sak lite där med DLSS etc och RTX(även om MS nu vill vara med). för där finns väl ingen som tror på fullaste allvar att Nvidia hade licensierat RTX och DLSS till AMD? Nvidia har aldrig gjort det förr så varför nu?

Visa signatur

12900K, 48GB DDR5, RTX 3070Ti

Permalänk
Medlem
Visa signatur

Citera för svar!

Permalänk
Medlem
Skrivet av Shiprat:

Och exakt vad är det man förlorar genom att köra freesync istället för G-Sync?

Freesync brukar kräva rätt hög fps (48+) för att hålla sig aktiverat (finns undantag). Gsync går betydligt lägre, dubblerar framsen under 30fps för att kunna hålla en högre syncad hz etc...

Visa signatur

... zzZZzzzZzzzzzZzzz ....

Permalänk
Medlem
Skrivet av wargreymon:

Om några år när de utvecklat detta mer, 10,20,30%? Om Intel får ordning på sina tillverkningstekniker och är bättre, men en AMD CPU boostar ditt grafikkort? Vad tror du folk väljer då? Jag menar inte att alla blir låsta, men det är en morot som lätt kan skena iväg mot något väldigt låst. 13% är ju skillnaden mellan 3080 och 3090 i spel.

Well, Intel jobbar på GPU's och nvidia är, typ, på väg in på processormarknaden. Just nu är det fortfarande så att AMD är den enda aktören som har både CPU och GPU inriktade på gaming på marknaden. Vet inte riktigt varför du väntar dig att de ska utveckla för andra? Det finns inget som hindrar nvidia eller intel att göra samma sak utöver det faktum att intel har ingen high-end gaming gpu och nvidia har ingen high-end gaming cpu. Förstår du vad jag säger? Detta är något som sker med CPU och GPU i kombination med varandra, right?

Det viktiga här är att folk som inte köper AMD förlorar ingenting på detta, är du med på det? Jag som har en 3900X kommer inte förlora något på att inte köpa upp mig, det finns bara mer prestanda att hämta.

Å andra sidan om jag skulle få en G-Sync skärm i julklapp eller något så kan jag fortfarande bara använda G-Sync med nvidia-kort om inte nvidia bestämmer sig för att "låsa upp den" åt mig..

För övrigt så tror jag att det är försent att oroa sig för att det ska skena iväg mot något väldigt låst- titta på Xbox Series X och Playstation 5 så ser du hur den visionen ser ut IRL. Lustigt nog så tuffar pcmasterrace på ändå.

Skrivet av Donnerstal:

Haha, okej, nu snackar vi år. Hade man fått 30% mer prestanda av att kombinera AMD med AMD skulle jag kunna kalla det för att "låsa" sig med AMD. Men skulle det gynna en så pass mycket hade det varit något positivt, men att bli låst med Nvidia utan några fördelar är nu inte samma sak då det är negativt.
Sen att det är upp till 13% är nog inget vi kommer se mycket av då det bara är i ett spel.

Om det finns någon chans om sådana gains så tror jag definitvt att intel och nividia kommer hitta på något liknande och, om historien är en indikation, förmodeligen lyckas lite bättre än AMD med det

Skrivet av SwedenVirre:

Tycker det är helt okey av AMD att ta fördel av sina divisioner för att skapa sig en fördel. Nvidia har gjort det i år, så why not lixom numera.

bara kolla på PhysX, förr var det ett separat kort du stoppade i din dator och du fick häftigare effekter i spel. nvidia köpte upp Ageia och låste det till sig själva och inte ge andra möjligheten.

Samma sak lite där med DLSS etc och RTX(även om MS nu vill vara med). för där finns väl ingen som tror på fullaste allvar att Nvidia hade licensierat RTX och DLSS till AMD? Nvidia har aldrig gjort det förr så varför nu?

Tycker det är fine- jag kommer nog inte uppgradera CPU bara för det om jag kör en RDNA2 gpu, men är intressant. Och igen- det handlar om fps i detta fall, inte faktiskt grafiska features eller hårdvarulåsta skärmar eller något.

Jag skulle ha fått ett PhysX M100-kort i en XPS M1730 laptop för många år sedan, en med två stycken 8700M GT i SLI. När jag hörde av mig till dell och ifrågasatte varför hårdvarumodulen inte var med så förklarade de att funktionen numera var inbakade i forceware (gammalt namn på nvidia drivers för de som inte minns) och därmed var hårdvarumodulen överflödig
Krävde att få lite rabatt då jag visste mycket väl att det inte var hela sanningen- PhysX funkade på 8700M GT men man var tvungen att köra i Single-GPU mode istället för "riktig" SLI och det tog en hyfsad tugga ur FPS.

Skrivet av Fade:

Freesync brukar kräva rätt hög fps (48+) för att hålla sig aktiverat (finns undantag). Gsync går betydligt lägre, dubblerar framsen under 30fps för att kunna hålla en högre syncad hz etc...

Ja, för att vara ärlig så vet jag rätt exakt skillnaden, jag var nyfiken på om personen jag citerade kunde backa sina argument med faktiska fakta då det verkade råda en del missförstånd om GSYNC/FREESYNC, licenser osv.

För referens här- Freesync har LFC vilket jag själv aldrig testat på min skärm då jag inte spelar något på så låga FPS ändå, men enligt laxpudding är det hit-or-miss typ. Citat nedan från tråd där det diskuterades:

Skrivet av Shiprat:

Ah, vänta, pratar vi om medan man kör med freesync på då alltså?
Såvitt jag vet så slår enhanced sync av Vsync när FPS < Refresh för att undvika den höga latensen man får av Vsync, men slår på Vsync när man är över för att undvika tearing.

LFC gör väl typ vad du beskriver men... jag tror enbart att detta täcker spannet upp till 48Hz?

Har inte själv testat det hela då jag aldrig kör spel i så låga FPS, men har en C32HG70QQ som ska ha stöd för LFC så kan köra lite supersampling eller forcera 4k och testa det hela senare.

@laxpudding skrev så här i recension av C32HG70QQ:

Ultimate Engine-läget med sitt 48–144 Hz är betydligt mer användbart eftersom effekten av adaptiv synk blir som tydligast när bildfrekvensen närmar sig 60 fps och däromkring. Det är då V-Sync ger som tydligast hackighet i flytet och V-Sync avstängt ger som tydligast tearing-fenomen vilket bryter sönder grafiken. Spannet räcker också till Low Framerate Compensation (LFC) där låga frekvenser under Freesync-gränsen hanteras genom att bildrutor repeteras tills den totala bildfrekvensen ligger inom spannet.

Skrivet av Laxpudding:

@medbor: Har varit borta ett par dagar så inte hängt med i diskussionerna. Så bara lite snabbt

LFC, low framerate compensation är det som AMD adderat till Freesync och som Nvidia använder vid G-Sync Compatible/VESA – samt motsvarande "alltid_funnits_där_så_inget_eget_namn"-funktion med G-Sync-modul.

Med LFC på en skärm med 48 Hz som lägsta synk kommer grafikkortet under 48 FPS att repetera bilden på dubbla frekvensen så att 34 FPS återger med en panelfrekvens 68 Hz. Syftet handlar mer om att undvika problemen med panelen vid låga frekvenser, särskilt flimmer. Men också att mjuka upp övergången in-och-ut ur synkspannet. Alla skärmar är dock inte så bra på LFC.

Utan LFC kommer under 48 FPS innebära att panelen stannar på 48 Hz och då kommer traditionell v-sync on/off att kicka in.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Skrivet av Umbrellas:

RIP 3090 köpare.

Ingen fara, de har inte levererats, så det är bara att ångra köpet!

Men ja om det här är någorlunda representativt så ser RTX 3090 ut som ett fånigare köp för spel än det redan va, och det säger jag som har beställt en för huvudsakligen spel.

Sannolikt är väl den här presentationen något skev ändå, för samma prestanda som RTX 3090 för bra mycket mindre pengar, det låter för bra för att vara sant. Lägger nog ändå en beställning på en 6900 XT och så får vi se vilken av dem jag skickar tillbaka.

Permalänk
Medlem
Skrivet av Donnerstal:

Du fattar vad jag menar. Men använder man skärmen till att spela så är det givet att använda någon av synkteknikerna. Stödjer skärmen inte freesync blir du ju därför "låst" till Nvidia. Men att du får några procent extra prestanda spelar inte alls lika stor roll. Om en vecka så bör alla köpa AMD-cpu:er (då de är bäst på allt, förutom överklockning), menar du då att alla blir låsta till AMD-GPU? Nej, det menar du ju inte.

Om man har en G-sync skärm så är man låst till Nvidia grafikkort för optimal upplevelse (variabel uppdateringsfrekvens).

Om man har ett AMD grafikkort så är man låst till AMD CPU för optimal upplevelse (bättre prestanda). Man är allså låst till CPU, inte GPU.

Sen är det en subjektiv bedömning hur "viktigt" variabel uppdateringsfrekvens är gentemot bättre prestanda och hur hårt låst man känner sig till respektive platform, men från en objektiv synvinkel så är situationerna likvärdiga.

Permalänk
Medlem
Skrivet av Frisell:

Om man har ett 3080(Eagle OC för 7825kr) liggandes hos ombudet, G-sync skärm och tänkt att spela i 1440p kan man med gott samvete hämta ut och behålla det va? Nätagg och chassi klarar effekt/värme..

Har man en G-sync skärm så är AMD knappast ett alternativ från början, tror inte AMD är intresserad av nåt priskrig heller.

Permalänk
Medlem
Skrivet av Goedendag:

Enligt Gamers Nexus (08:59) som frågade AMD så gav Smart Access 1-7% ökad prestanda i spelen som de visade förutom i Forza Horizon 4 där det gav 11-12%. RAGE-läget gav 1-2%.

Rage-läget verkar inte vara något att hänga upp sig över, det kunde likväl hetat "turbo boost 2X"
Smart Access + Rage-läget gav i snitt 6% enligt presentationen, en trevlig prestandaökning men jag hade inte blivit förvånad om skillnaden är mindre än så i oberoende tester av andra titlar.
Jag tror att om man testar endast skillnaden Smart Access bidrar till så tror jag inte den gör speciellt mycket större skillnad än felmarginalen vid flera tester, SmartShift gjorde knappt någon mätbar skillnad i laptops trots att de lovade upp till 14% och ryzen 4000 laptops med nvidia presterade trots det bättre.

Permalänk
Medlem
Skrivet av ramlösa:

Har man en G-sync skärm så är AMD knappast ett alternativ från början, tror inte AMD är intresserad av nåt priskrig heller.

Nej, jag antar väl det. Dessutom har ju AMD lite att visa vad det gäller drivers. Antar att jag behåller mitt 3080.

Vad tror ni man får för ett 2070 ventus? Fnular om jag ska bygga en liten rackare till TVn eller bara kränga det.

Permalänk
Medlem
Skrivet av Frisell:

Om man har ett 3080(Eagle OC för 7825kr) liggandes hos ombudet, G-sync skärm och tänkt att spela i 1440p kan man med gott samvete hämta ut och behålla det va? Nätagg och chassi klarar effekt/värme..

nej men om du har fått ett 3080 för rekommenderat pris så kör på det och var glad! rekommenderat pris för 6800 XT blir ju minst 7200kr i sverige. är ju ingen enorm skillnad i sammanhanget. blir en helt annan situation än om man är uppe i 8500-9000 som det blir om man ska köpa 3080 idag.

Permalänk
Medlem
Skrivet av versions:

nej men om du har fått ett 3080 för rekommenderat pris så kör på det och var glad! rekommenderat pris för 6800 XT blir ju minst 7200kr i sverige. är ju ingen enorm skillnad i sammanhanget. blir en helt annan situation än om man är uppe i 8500-9000 som det blir om man ska köpa 3080 idag.

Tack för svar. Jag vill gärna att amd får lite att säga till om, men jag skulle nog känna mig "tryggare" med ett nvidiakort. Tänker mest på drivrutiner och nämnda skärm. Blir nog att behålla. <3

Permalänk
Medlem

Intressant, AMD kanske är relevanta igen när det väl blir dags att uppgradera.

Visa signatur

Define XL R2 || CM Silent Pro M1000 || Asus Z490-F || Intel i9 10900k || Noctua NH-D15 || RTX 2080 || 64GB DDR4 || 1TB 970 Evo Plus M.2 + 1.5TB SSD + 2TB HDD || Win10 Pro

Permalänk
Medlem

Ok, slänger man ett hastigt öga på det ser det ju bra ut. Men var är något motsvarande Nvidias DLSS 2.0? Var är information om prestanda med RTX på? Lägger man ihop 1+1 så kan man nog gissa ganska säkert att RTX-prestandan inte riktigt kan mäta sig med Nvidias 30-serie och det är därför denna data inte presenteras...

Det i kombination av att jag seriöst aldrig hört någon säga att de föredrar AMDs drivrutiner och mjukvara över Nvidias de senaste... 5-8 åren gör nog att jag definitivt avvaktar denna första "come back"-serie från AMD så får man se hur de står sig med nästa generation. Men välkomna tillbaka upp i topp igen AMD.

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 3080 12GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD | Synology DS920+ w/20GB RAM SHR 48TB | Seagate IronWolf 10TB HDD intern HDD
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto
: Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Skrivet av Helionart:

6900XT, antar ca 9000-10000:- i Sverige. och en 6800XT för dryga 6500-7000:-. Om det blir dessa priser och med full tillgänglighet i November/December så har AMD mitt köp säkrat.

6800 XT räkna med 7200 kr drygt.

6900 XT lär vara runt 11000 kr.

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Medlem
Skrivet av Bengt-Arne:

Ja, AMD sänker upplösningen som bearbetas som sen blir skalad upp för att passa den upplösning man kör skärmen i.

Två sätt att få upp antalet FPS där båda angriper det med att låta grafikkortet bearbeta en lägre upplösning, vilket som är bäst?
Inte en aning.

Skulle se något ut om skärmarna nu även skulle hoppa mellan olika upplösningar, bild för bild

Skulle verkligen vilja se den skärm som adaptivt kan hoppa mellan olika upplösningar, bild för bild

Det är ju exakt det här som konsolerna har gjort ett bra tag,
De ändrar upplösning neråt när frameraten inte hänger med riktigt.
Du får skilja på skärmens upplösning och renderingsupplösning. Det är lite som att spelet i sig ändrar renderscale som finns i många spel, fast automatiskt.

Verkar ju dumt att AMD skalar ner ifrån säg 1440P till 1080P för att sedan skala upp till 1440P igen. Vad exakt skulle det ge?
Förutom ännu sämre framerates och bildkvalitet.

DLSS så kör man en låg upplösning hela tiden som skalas ujpp till 1440P / 4K

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem

Ser bättre ut än jag trodde, dock en stor grej som saknas - de har inget motsvarande DLSS.

Permalänk
Medlem
Skrivet av kallandes:

Du utryckte dig inte så, även om du kanske tänkte rätt! Skriver man, som du! Att 649 dolleros (ex moms), är ett bra pris. Jämfört med 781 dollar (inklusive moms). Så blir det lite fel. Men det kanske var hur du skrev, och inte hur du tänkte?

Ville mer få fram att 3080 inte kostar 699 +moms utan 781 dollar + moms .Då 699 bara var under papperslanseringen . Så håller AMD 649 dollar +moms är det inte 50 dollar billigare .Det är 132 dollar billigare .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm