AMD "Big Navi" uppges nå klockfrekvenser över 2,3 GHz

Permalänk
Medlem

Behöver man ens bättre än 2080 ti prestanda idag? Att man släpper ett kort som hamnar mellan 3080 och 2080 ti känns alldeles lagom och bra.

Permalänk
Medlem
Skrivet av kettu92:

Skulle lätt köpa denna istället för en 3080. MEN man har en gsync skärm så..

Tänker kör all out; Big Navi, Ryzen 3, freesync skärm.

Darrenj

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Medlem
Skrivet av bobish:

Behöver man ens bättre än 2080 ti prestanda idag? Att man släpper ett kort som hamnar mellan 3080 och 2080 ti känns alldeles lagom och bra.

Ja tyvärr. Betydligt bättre tom. Lite extrema exempel så klart, men vill bara visa på att ett 2080ti är inte på något sätt bra nog för alla scenarion som folk vill använda grafikkort till. När vi kan köra alla spel på högsta grafik, i 4K, med rtx, i 144fps: då kommer 240Hz skärmar och sen 360Hz skärmar. För att inte tala om 8K skärmar

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Spännade!
Jag misstänker att AMD kommer prestera mycket bra i de "lägre" upplösningarna, 1080, 1440.
3080 och 3090 är förhållandevis klena där, ligger "nära" sina föregångare.

var tvungen att kolla sweclockers test.
I 1080P och 1440P så var 3080 ca 40fps snabbare i snitt per spel än 2080ti, tycker inte det är klent direkt

Men det är klart, använder man en långsammare processor så kanske man flaskar i cpun, och då märks det inte så stor skillnad.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Inaktiv
Skrivet av elajt_1:

Troligtvis är det deras bästa. Verkar inte speciellt troligt att dom velat förhandsvisa något annat.

@elajt_1

Det är nog inte det värsta, vad ska de visa sen då 😂

Permalänk
Medlem

Sweclockers kör olika inställningar än vad AMD verkar ha kört. Vet att någon tog upp det i tråden om avtäckningen av Zen 3 och hur man kom fram till att siffrorna man visade upp faktiskt hamnade inom felmarginalen till RTX 3080.. vilket i sin tur innebär prestanda en bra bit över RTX 2080 Ti.

Skrivet av Vangen:

EN del påstår att den ska klå 390 och vissa påstår något under 3080.

Nåja, den 28 får avgöra svaret.

Vem påstår att just detta kort ska slå 3090?

Skrivet av Snickarboa:

Jag tror, att korten kommer att vara above the average expectation.

Men, jag tror också att precis som vad gäller Zen 3, att AMD tänker ta ordentligt betalt. Dom är nu aningen 'drunk with power' efter att ha kunnat omvända så mycket intel-fans till Ryzen, och har dom ett kort som är låt säga något bättre än 3070, så kommer det bli dyrare än 3070.
Har dom ett kort som är bättre än 3080, så kan det bli märkbart dyrare än 3080. Varför? Jo, eftersom så många datorägare plötsligt fått en sällan skådad panik över att deras spelprestanda plötsligt är ohållbart låg, och Nvidia satsade allt på en pushad paperlaunch för att 'frontrunna' AMD, och nu får den backlash dom förtjänar, så tänker AMD säga:

Vi har produkten, ni har suget. Vi kostar ungefär som det ni var beredda att köpa från Jensen. Skillnaden blir den att ni får vår produkt nu (eller betydligt snabbare iaf).

Är inte så säker på det faktiskt med tanke på skillnaderna på de olika marknaderna ifråga. Där AMD på CPU sidan har ett Intel med problem och som inte lanserat en ny produkt att konkurrera mot Zen 3 så har Nvidia just släpp en produkt som är betydligt bättre än den förra och har en klar majoritet av marknaden. Så där AMD inte behöver konkurrera med pris på CPU sidan, eftersom de successivt tagit marknadsandelar sedan de lanserade Zen 1, så behöver de ta in marknadsandelar på GPU sidan.. och därför kommer de behöva konkurrera med pris.

Skrivet av Daniel75:

Vattenkyler man 3080/3090 så kommer boost ligga hela tiden uppåt 2100 mhz kanske högre. Det är temps som sänker den. Power limit kickar in en bit upp också så klart.

Då kan man börja jämföra kärnor och annat mellan nvidia och amd och inte bara kika på boost då det inte skiljer lika mycket.

Varför ens ta upp vattenkylning? Om detta rykte stämmer så kommer AMD att kunna driva dessa klockfrekvenser på luft.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | AMD R7 9800X3D | MSI MAG X870 Tomahawk WIFI | 64 GB Corsair DDR5 6000 MHz CL30 | Asus Prime RTX 5070 Ti OC 16GB GDDR7 | 512 GB Samsung Pro 850 SSD + 2TB WD Black + SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem

Fantastisk med två konkurrenter som pressar ner pris för 4k spel till oss vanliga dödliga. Jag är gammal fattig och väntar otåligt på intels svar. Med intels stora pengakista hoppas jag att hdr spelande blir en mer skonsam upplevelse för plånboken. Intels 6nm wafers har produkerats i flera veckor nu. Jag tror att min nästa GPU blir en Intel med TSMC process node på 6nm(nautiska mil).

Permalänk
Moderator
Testpilot
Skrivet av Daniel75:

Får man inte vara lite grön fanboy iallafall ?

Klart du får men du kommer inte stå oemotsagd. Jag har hängt på detta forumet ett tag och en sak är säker så kallad "confirmation bias" har vi nog alla lite till mans men man får inte låta det gå förbi det rationella tänkandet.

Confirmation bias is the tendency to search for, interpret, favor, and recall information in a way that confirms or supports one's prior beliefs or values. It is an important type of cognitive bias that has a significant effect on the proper functioning of society by distorting evidence-based decision-making.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - LG 45GR95QE 45" UltraWide OLED 3440x1440p@240Hz - kalaset vattenkylt

Permalänk
Medlem

Angående G-Sync så måste jag påpeka som någon redan gjort att de nyaste G-Syncskärmarna med den nya modulen även fungerar med AMD-kort.

Tack och lov.

Permalänk
Medlem
Skrivet av bobish:

Behöver man ens bättre än 2080 ti prestanda idag? Att man släpper ett kort som hamnar mellan 3080 och 2080 ti känns alldeles lagom och bra.

Ja det behövs verkligen.
Alla spel idag kompromissas med i detaljrikedom för att kunna drivas i hyfsat bra fps. Hade varit mycket bättre om grafikkorten var mycket kraftfullare så speltillverkarna vågade ta nästa steg i utvecklingen.
Tex fotorealism
Ray Tracing (inte bara reflektioner, utan Full RT)

Battlefield 5 må vara snyggt och ganska likt verkligheten från långt håll, men nära inpå objekt är det uppenbart att det är långt kvar till fotorealism.

Jag hade det högst presterande grafikkortet år 2011, idag är den rent av skräp.
Jag hade det högst presterande grafikkortet år 2016, nu kan jag få mer än 100% högre fps med ett 3080/RX6000.

Om 4 år är ett 3080 lika långt efter som mitt gtx 1080 är idag

Visa signatur

6800 XT - Ryzen 5900x - 32GB G.Skill 3733mhz - Asus Strix X570-E - Noctua NH-D15
WD SN750 1TB - Samsung 960 Evo - 850 Evo 1TB - 750 Evo
Corsair HX750i - NZXT Phantom 630 - LG S2721DGFA
Razer Deathadder 2013 - HyperX Alloy Core - Sennheiser GSP 350

Permalänk
Medlem
Skrivet av CubaCola:

var tvungen att kolla sweclockers test.
I 1080P och 1440P så var 3080 ca 40fps snabbare i snitt per spel än 2080ti, tycker inte det är klent direkt

Men det är klart, använder man en långsammare processor så kanske man flaskar i cpun, och då märks det inte så stor skillnad.

Jag var otydlig, jag menar inte att ett 3080 är långsamt, det är det absolut inte
Vad jag menar är att prestandaökningen med ett 3080 ökar med upplösningen, något som antyder att 3080 är ämnad för högre upplösningar.
Ta en titt på: https://www.sweclockers.com/test/30343-nvidia-geforce-rtx-308...
Vid 1080 är ökningen "bara" 62%
Den stiger till 75% vid 1440
Och är 87% vid 2160
Detta har antagligen med Amperes arkitektur att göra.
Den klarar inte höga frekvenser så bra och har därför blivit "bredare", fått fler CUDA-kärnor etc.
I lägre upplösningar används inte alla utan där spelar frekvensen en större roll

Jag misstänker att Navis höga frekvenser kommer att ge den en ordentlig ökning vid 1080. Ökningen minskar ju högre upp du går i upplösning. Dvs omvänt vad Ampere gör.

Permalänk
Inaktiv
Skrivet av Zemlan:

Svaret är inte så enkelt men nästan. Äldre Gsyncskärmar har en modul i sig som gör att sync enbart fungerar ihop med Nvidiakort. Så i det fallet helt klart. Vill man ha sync krävs Nvidia.

Efter påtryckningar har Nvidia börjat tillåta att Freesync kan användas till deras kort dock eftersom inget direkt hindrade det förutom Nvidia själva. Men de garanterar inget på skärmar de inte certifierat och verifierat att skärmen kan erbjuda en enligt dem bra upplevelse. Detta eftersom många tillverkare slängde med freesync på skärmar där det inte har att göra men ger en symbol till de kan marknadsföra...sen att det knappt fungerar skiter de i.

Detta har ju dock styrts upp lite på senare tid. Dels pga AMD styrt upp och har nivåer av freesync så man vet om det är bra grejer eller budget för gratis marknadsföring. Men också pga Gsync har ju också olika grader sedan Nvidia tillät sina kort att nyttja freesync. Minns inte vad de kallade dem dock men är det Gsync med en modul i är det högsta och finaste nivån och så finns nivåer under det där Freesyncskärmar kan kvala in beroende på hur väl de fungerar osv.

Typ något i denna stilen är situationen i dagsläget.

Ah, justja, kommer ihåg videos där de nämnt att vissa är gsync compatible och vissa aktive gsync etc. Förmodligen det du nämner.

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Jag var otydlig, jag menar inte att ett 3080 är långsamt, det är det absolut inte
Vad jag menar är att prestandaökningen med ett 3080 ökar med upplösningen, något som antyder att 3080 är ämnad för högre upplösningar.
Ta en titt på: https://www.sweclockers.com/test/30343-nvidia-geforce-rtx-308...
Vid 1080 är ökningen "bara" 62%
Den stiger till 75% vid 1440
Och är 87% vid 2160
Detta har antagligen med Amperes arkitektur att göra.
Den klarar inte höga frekvenser så bra och har därför blivit "bredare", fått fler CUDA-kärnor etc.
I lägre upplösningar används inte alla utan där spelar frekvensen en större roll

Jag misstänker att Navis höga frekvenser kommer att ge den en ordentlig ökning vid 1080. Ökningen minskar ju högre upp du går i upplösning. Dvs omvänt vad Ampere gör.

Jag tror du är rätt ute. Om däremot AMD lyckats även på "bredden" med 80 CU skulle största BN mycket väl kunna klå 3080.

Visa signatur

Chassi: Phanteks P600S | Mobo: MSI Z-690 Edge Wifi DDR4 | RAM: 32GB | GPU: ASUS TUF Gaming GeForce RTX 4090 OC | CPU: Intel i7 12700K | Kylning: Phanteks Glacier One 360MP HALOS | SSD: Samsung 980 Pro 1TB + 970 Evo 2TB | HDD: 8TB+4TB WD Red/Blue intern + 500GB WD extern | PSU: ASUS Rog Strix 1000W | Skärm: Samsung 75Q95T (TV)

Permalänk
Medlem
Skrivet av bobish:

Behöver man ens bättre än 2080 ti prestanda idag? Att man släpper ett kort som hamnar mellan 3080 och 2080 ti känns alldeles lagom och bra.

Nej RDR 2 fungerar ypperligt på 2080 ti. Hur fort lir kommer som verkligen kräver mer och där de nya korten förhoppningsvis växlar upp och gör skillnad. Jag förstår inte argumentet med 1440p prestanda. Framöver när de ökar kvaliten på texturer mm kommer 1440p va lika krävande som 4k är idag och då kommer kortet som stryps i 4K att va strypt i 1440p också.

Sätter större vikt vid 8k eller 4k benchmarks. Det sållar agnarna från vetet skillnaderna mellan bättre och sämre grafikkort minskar ju lägre upplösning du kör.

Visa signatur

Corsair A850W
Intel I7-7700K Kaby Lake
Asus Z270H GAMING
16 gb RAM
msi 3080 suprim x

Permalänk
Inaktiv
Skrivet av Donnerstal:

Ja, men G-sync brukar dock vara bättre. Men tycker själv inte att det är riktigt värt pengarna.

Vad är det som är bättre?

Permalänk
Medlem
Skrivet av anon298854:

@elajt_1

Det är nog inte det värsta, vad ska de visa sen då 😂

Jo fast det här vara ju bara en liten förhandstitt och dom har ju inte pratat något och nya funktioner etc annat än nämnt att det finns hårdvaru-RT. Jag hoppas dock att det är som du tror men chansen för det känns inte speciellt stor.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av anon298854:

@elajt_1

Det är nog inte det värsta, vad ska de visa sen då 😂

Nja, vi har lite olika trender här från AMD.På processorsidan visade de upp sina best-case-scenarios tills de hade Zen. Då helt plötsligt lyckades de hålla inne alla läckor och lät alla jämföra med de 40% IPC som de själva hade angivit i ngn roadmap och i själva verket blev det 52%. Zen 2-avtäckning var lite på samma melodi. IPC upp X%, här en jämförelse i cinebench mot intels värsta (och den jämförelsen stämde ungefär med vad oberoende tester gav).

Polaris, å sin sida, är väl det värsta exemplet av cherry picking vi har sett. "2,5X!". Vilket visade sig vara ett specifikt kort i ett specifikt spel. Men det uppnådde förvisso 2,5X.
Vega var lite åt samma håll, även om jag inte kommer ihåg ngt specifikt scenario, medan 5700 var på versionen "IPC upp X%, jämför med 2070" (vilken också verkar stämma om man jämför med Swec hela testsvit).

AMD för några år sedan hade visat det bästa scenario de kunde hitta, men min känsla är att såhär långt har de använt jämförelser som har varit rättvisa (dvs, de har använt samma RAM-frekvens, inte hindrat motståndaren att boosta, använt samma hårddisk i båda testsystemen etc) och gått att upprepa i oberoende tester och gett en någorlunda ok uppfattning om prestanda.

Om det nu inte hade varit för sandboxingen av Zens prestanda och nVidias något panikslagna lansering, förstås...

Permalänk
Medlem
Skrivet av anon134512:

Vad är det som är bättre?

G-Syncmodulen kan variera overdrive genom hela syncspannet vilket bör ge bättre kontroll över eftersläp och liknande. Dessutom har Nvidia kontroll över skärmarna så köper man en skärm med G-Syncmodul så kan man vara säker på att upplevelsen är bra.

Det finns såklart skärmar med Freesync (den öppna standarden) som är bra och fungerar i princip lika bra som native G-Syncskärmar, men då måste man läsa tester (vilket man bör göra ändå) och göra lite efterforskningar för att vara säker på att skärmen fungerar som förväntat med Adaptive-Sync påslaget.

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Jag misstänker att Navis höga frekvenser kommer att ge den en ordentlig ökning vid 1080. Ökningen minskar ju högre upp du går i upplösning. Dvs omvänt vad Ampere gör.

Tror den låga ökningen på låga upplösningar har med processorn att göra.
Fanns det snabbare cpuer än 10900k skulle vi se högre skillnad i 1080p.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av CubaCola:

Tror den låga ökningen på låga upplösningar har med processorn att göra.
Fanns det snabbare cpuer än 10900k skulle vi se högre skillnad i 1080p.

Nej det verkar inte så faktiskt. Hardware Unboxed har gjort några tester som visar att det till största delen är arkitekturen som kan sträcka på benen i högre upplösningar.

Permalänk
Medlem
Skrivet av Novdid:

Nej det verkar inte så faktiskt. Hardware Unboxed har gjort några tester som visar att det till största delen är arkitekturen som kan sträcka på benen i högre upplösningar.

https://youtu.be/c7npXXyXJzI

Hardware unboxed är ingen kanal jag skulle lita på

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av CubaCola:

Hardware unboxed är ingen kanal jag skulle lita på

Det är väl OK att du inte litar på dem. Men lite efterforskningar och att lägga ett plus ett från flera sidor och tester ihop (SweC, Gamers Nexus mfl) så tror jag att det står relativt klart att Amperes kärnor matas "bättre" i högre upplösningar.

Permalänk
Medlem
Skrivet av CubaCola:

Hardware unboxed är ingen kanal jag skulle lita på

Varför inte?

Permalänk
Skrivet av Snickarboa:

Jag tror, att korten kommer att vara above the average expectation.

Men, jag tror också att precis som vad gäller Zen 3, att AMD tänker ta ordentligt betalt. Dom är nu aningen 'drunk with power' efter att ha kunnat omvända så mycket intel-fans till Ryzen, och har dom ett kort som är låt säga något bättre än 3070, så kommer det bli dyrare än 3070.
Har dom ett kort som är bättre än 3080, så kan det bli märkbart dyrare än 3080. Varför? Jo, eftersom så många datorägare plötsligt fått en sällan skådad panik över att deras spelprestanda plötsligt är ohållbart låg, och Nvidia satsade allt på en pushad paperlaunch för att 'frontrunna' AMD, och nu får den backlash dom förtjänar, så tänker AMD säga:

Vi har produkten, ni har suget. Vi kostar ungefär som det ni var beredda att köpa från Jensen. Skillnaden blir den att ni får vår produkt nu (eller betydligt snabbare iaf).

Jag tar och gör ett litet samlings-svar för er som replyade på mitt inlägg ovan.

Först, med 'AMD kommer ta ordentligt betalt' menade jag inte att de kommer att ta MYCKET mer än motsvarande 30x0 kort, utan snarare att drömscenariot med ett klart lägre pris för klart högre prestanda inte kommer inträffa den här gången.

Själv är jag väldigt nöjd med mitt 5700XT, och behöver egentligen inte uppdatera den här generationen, men, det skulle vara svårt att låta bli om den kommande Navi som ska gå mot 3700 visar sig vara 10% bättre och 15% billigare.

Men, jag tror att det snarare kommer att bli 10% bättre och 15% dyrare. Vilket fortfarande antagligen gör det till ett mycket bra köp, och ett lätt val, i synnerhet för den som vill ge Nvidia på moppo för sin paperlaunch.

Sen är det dock en hög risk att AMD också kommer att producera en form av paperlaunch, då både Nvidia och AMD egentligen hade behövt senare datum för sina lanseringar för att hinna med. AMD har blivit tvungna att haka på Nvidia's spurt, men hade nog helst sluppit.

Slutligen angående AMD's övergripande strategi om hur de ska prispositionera från sin nuvarande position. Ser AMD sig själva som underdogs? Hur ser the general public AMD's position?
Jag kvarhåller mitt påstående om att AMD nu är aningen 'drunk with power'. Jag tror att även om CPUdivisionen och Radeon Group egentligen är två helt skilda företag så har grafikgruppen nog smittats av framgångarna från CPUsidan, och fått ideer och självförtroende som kanske inte är helt rationellt.
Tillsammans med mer lite mer pengar på kontot än vad som funnits på väldigt länge, så anlägger man nu en "F*ck you, i won't do what you tell me" (rage against the machine för musikfolket )-attityd, och kommer alltså att köra med "vi ska fan ta betalt, vi behöver inte kröka rygg den här gången!"

Permalänk
Medlem
Skrivet av Snickarboa:

Slutligen angående AMD's övergripande strategi om hur de ska prispositionera från sin nuvarande position. Ser AMD sig själva som underdogs? Hur ser the general public AMD's position?
Jag kvarhåller mitt påstående om att AMD nu är aningen 'drunk with power'. Jag tror att även om CPUdivisionen och Radeon Group egentligen är två helt skilda företag så har grafikgruppen nog smittats av framgångarna från CPUsidan, och fått ideer och självförtroende som kanske inte är helt rationellt.
Tillsammans med mer lite mer pengar på kontot än vad som funnits på väldigt länge, så anlägger man nu en "F*ck you, i won't do what you tell me" (rage against the machine för musikfolket )-attityd, och kommer alltså att köra med "vi ska fan ta betalt, vi behöver inte kröka rygg den här gången!"

Jag har svårt att se ett AMD som beter sig på det viset med Lisa Su vid rodret. Hon verkar ha fått bra styrning på skeppet och det de behöver göra på GPU-sidan är att vinna förtroende innan de kan börja pumpa upp priser. De är när det kommer till mind share på grafikkortsidan så långt efter Nvidia att det inte är möjligt att vara framgångsrik i ett sådant scenario som du beskriver.

Det tror jag Lisa Su och AMD är väl medvetna om själva.

Permalänk
Viking
Skrivet av anon134512:

Vad är det som är bättre?

G-sync är väll lite bättre på synkningen helt enkelt, har jag för mig iaf. Eller?

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 9800X3D | 32GB RAM @6000MT/s cl30 | Asus ROG Strix B650E-I | Cooler Master NR200P MAX V2 | LG OLED 27GX790A 480Hz

Permalänk
Inaktiv
Skrivet av Novdid:

G-Syncmodulen kan variera overdrive genom hela syncspannet vilket bör ge bättre kontroll över eftersläp och liknande. Dessutom har Nvidia kontroll över skärmarna så köper man en skärm med G-Syncmodul så kan man vara säker på att upplevelsen är bra.

Det finns såklart skärmar med Freesync (den öppna standarden) som är bra och fungerar i princip lika bra som native G-Syncskärmar, men då måste man läsa tester (vilket man bör göra ändå) och göra lite efterforskningar för att vara säker på att skärmen fungerar som förväntat med Adaptive-Sync påslaget.

Tack för bra svar!

Skrivet av Donnerstal:

G-sync är väll lite bättre på synkningen helt enkelt, har jag för mig iaf. Eller?

Ingen aning, därav frågan.

Permalänk
Medlem
Skrivet av Donnerstal:

G-sync är väll lite bättre på synkningen helt enkelt, har jag för mig iaf. Eller?

G-sync modul

+Refresh rate range, 1-xxxHz
+Variable overdrive, dvs overdrive läget anpassas efter refresh rate
+Kvalitetssäkrat beteende, Freesync = vilda västern
+Nyare fungerar med både Nvidia och AMD kort

-Dyrare
-Äldre moduler fungerar ej med Freesync
-Version 2(?) har fläkt

Enligt Igors lab kan Navi 21 XT hamna runt 320W.. får hoppas att detta inte stämmer.

Permalänk
Medlem
Skrivet av TuHack:

G-sync modul

+Refresh rate range, 1-xxxHz
+Variable overdrive, dvs overdrive läget anpassas efter refresh rate
+Kvalitetssäkrat beteende, Freesync = vilda västern
+Nyare fungerar med både Nvidia och AMD kort

-Dyrare
-Äldre moduler fungerar ej med Freesync
-Version 2(?) har fläkt

Enligt Igors lab kan Navi 21 XT hamna runt 320W.. får hoppas att detta inte stämmer.

Dom skulle inte pressa så om dom siktade på att slå 3070 . Tycker det är bra . Säkert kommer det ett 5900 där man inte pressat så hårt presterar 10 % sämre men drar 15 % mindre ström .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 11 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av Novdid:

Det är väl OK att du inte litar på dem. Men lite efterforskningar och att lägga ett plus ett från flera sidor och tester ihop (SweC, Gamers Nexus mfl) så tror jag att det står relativt klart att Amperes kärnor matas "bättre" i högre upplösningar.

Gamer Nexus och Sweclockers är 2 fina ställen att kolla på recensioner!.
Men Hardware unboxed spyr på allt som inte är AMD så hans videos är alltid förutsägbara om det är ett test mellan Nvidia och AMD eller Intel och AMD.
Eller videon där han uppenbart visste om att det var inget fel med kondensatorerna på RTX3080, men han hade givetvis haft det här problemet med krasher på nästan alla kort han testat... jo tjena

Har kollat lite benchmarks där man kör tex msi afterburner, och i många spel på RTX3080 så ligger gpun och puttrari runt 80% utilisation i 1080P vilket i mina ögon skulle tyda på att processorn flaskar en massa.
Så fort man hoppar upp till 1440P så börjar man se 95-97% util, och då börjar gpun bli flaskhalsen istället.

Men det är min egna tolkning av det hela.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz