Nvidia Geforce RTX 5060 Ti: Mellankort, mellanpris, mellanbra

Permalänk
Medlem
Skrivet av Marquzz:

Fan va nVidia är fula och släpper denna först så att recensioner på 16GB modellen kommer flöda över. Sen släppa 8GB modellen i smyg och folk som har mindre koll kommer kanske bara läsa/höra om 16GB recensionerna. Och som vanligt ingen kritik mot nVidia från Swec....

Nvidia har bromsat / förbjudit publicerade tester av 8GB. Lite lustigt..

https://videocardz.com/newz/nvidia-doesnt-want-geforce-rtx-50...

Permalänk
Medlem

Nåja.. vi kan säga att Swec ett tag nu varit fullständigt out of touch i sina reviews o betygen. Hyfsat sågad produkt relativt till priset. Inte hos swec dock som gillar Giridia. Ex.. hyfsad produkt hos alla stora reviewers om den kostat som 8gb versionen.. och 8gb versionen är skrattretande enl de flesta. Så.. dags att skärpa sig swec. Er trovärdighet står på spel här.. för många skitreviews helt enkelt.

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem
Skrivet av EvonS:

Nåja.. vi kan säga att Swec ett tag nu varit fullständigt out of touch i sina reviews o betygen. Hyfsat sågad produkt relativt till priset. Inte hos swec dock som gillar Giridia. Ex.. hyfsad produkt hos alla stora reviewers om den kostat som 8gb versionen.. och 8gb versionen är skrattretande enl de flesta. Så.. dags att skärpa sig swec. Er trovärdighet står på spel här.. för många skitreviews helt enkelt.

Mycket möjligt att ett omtag borde göras, enligt kritiken som kommit ovanledes.
Emellertid, har jag sett att Testpanelen™, har haft fast mark under fötterna.. Välmotiverade betygs-sättningar, med undantag... som backats upp, enligt rådande förhållanden (på den bedrövliga) marknaden.
Tillverkarna regerar, har jag fårstått.
Vi andra, med pengarna, får ge oss till tåls
Ha en Fin Påsk..

Permalänk
Medlem
Skrivet av Rosenvik:

Absolut, som när vi recenserade det förra Nvidia-kortet - RTX 5070. Utmärkelse uteblev, och det publicerades med brasklapp.

Breakdown av de senaste fem recensionerna:

RTX 5060 Ti - Bra Produkt
Asrock B570 Challenger OC - Missar Målet
RX 9070 Hellhound - Publicerades utan omdöme och med brasklapp
RX 9070 XT Red Devil - Publicerades utan omdöme och med brasklapp
RTX 5070 - Publicerades utan omdöme och med brasklapp

Det känns inte så "IGN 7/10", enligt min mening.

RTX 5060 Ti presterar 91% av ett 4070 i 1440p och B570 presterar 57% av ett 4070.
Således är 5060 ti 91/57 = 60% kraftfullare än ett B570, men det kostar 5399/3300 = 63% mer.
(SweClockers egna siffror)

Hur i hela friden kan 5060 Ti få ett bättre betyg än B570, när det är mindre prisvärt?
Vid en snabbkoll går dessutom B570 att köpa för 2990Kr idag (+81%), då kronan har stärkts mot dollarn och skulle man jämföra MSRP mot MSRP så är det $429 (5164Kr) mot $219 (2636Kr) vilket är en hårsmån från dubbla priset (+96%).

Visa signatur

*5800X|B550M|64GB|RX7800XT|GX750W|Core V21|280AIO|2TB+2TB|1440p 240Hz

AMD Ryzen 7 @4,95GHz|Gigabyte Aorus Elite(rev1.3)|Corsair 2x32 LPX Vengeance 2666C16 @3600C20|Asus DUAL OC @990mV, 3,2/2,6GHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 4.0x4 Samsung 980 Pro 7000/5100 + 2,5" HDD Toshiba 1TB & Seagate 1TB i RAID 0|Acer Nitro XV272Uz 27" IPS 270Hz @240Hz.

Permalänk
Medlem

Mellanmjölk…?

Permalänk
Medlem
Skrivet av Fjädernylle:

Om framegen skall räknas så skal ldet finnas ett multiplayer och ett singleplayer läge

Jag har missat att framegen presterar annorlunda baserat på om det är ett singleplayer- eller multiplayerspel. Utveckla gärna, jag är väldigt nyfiken då jag trodde att framegen skedde lokalt i datorn och inte påverkades av nätverk.

Permalänk
Moderator
Moderator
Skrivet av Fenrisulvfan:

RTX 5060 Ti presterar 91% av ett 4070 i 1440p och B570 presterar 57% av ett 4070.
Således är 5060 ti 91/57 = 60% kraftfullare än ett B570, men det kostar 5399/3300 = 63% mer.
(SweClockers egna siffror)

Hur i hela friden kan 5060 Ti få ett bättre betyg än B570, när det är mindre prisvärt?
Vid en snabbkoll går dessutom B570 att köpa för 2990Kr idag

Betygen sätts rimligen i samband med kortsläppen, eller hur? Då kostade B570 och B580 ungefär lika mycket medan det sistnämnda presterar påtagligt bättre. B580 fick utmärkelsen "bra produkt" medan det till samma pris sämre presterande B570 inte fick det.

Utöver det är det givetvis fler faktorer än enbart prestanda per pris som utgör grund för betygsättningen. Helt oavsett vad man personligen tycker om funktioner som uppskalning och bildrutegenerering är det uppenbarligen något som är både uppskattat och anses vara användbart av många spelare vilket då självklart påverkar viket omdöme en produkt ges. Intels kort ligger klart efter på den fronten, och det bör också återspeglas i bedömningen av deras produkter.

Visa signatur
Permalänk
Medlem
Skrivet av EvonS:

Nåja.. vi kan säga att Swec ett tag nu varit fullständigt out of touch i sina reviews o betygen. Hyfsat sågad produkt relativt till priset. Inte hos swec dock som gillar Giridia. Ex.. hyfsad produkt hos alla stora reviewers om den kostat som 8gb versionen.. och 8gb versionen är skrattretande enl de flesta. Så.. dags att skärpa sig swec. Er trovärdighet står på spel här.. för många skitreviews helt enkelt.

Jag tror problemet är att många förväntar sig lika stora prestandahopp per krona som för några år sedan.

Som 960 —> 1060 eller 1060 —> 2060.

Läser man forum så inser man snart att 2060 var det sista kortet i 60-serien som var bra. Så väl 3060 som 4060 och nu 5060 är värdelösa till den grad att man som läsare nästan börjar undra om de nya generationerna är sämre än de föregående. Men så är det naturligtvis inte. 5060 är bra mycket vassare än 2060 och kan definitivt vara en vettig uppgradering om man bara spelar lite då och då.

Sen har priserna gått upp massa, helt klart, men inget blir bättre av att köpa ett ÄNNU dyrare kort än man behöver bara för att det dyrare har någon procent bättre ”prestanda per krona”.

Permalänk
Medlem

Du får ett 7700XT för under 5k och ett 7800XT för under 6k. Så knappast en "Bra produkt" för 6,7k men för listpriset 5,4k är det en helt ok produkt

Visa signatur

MB: MSI B450 Tomahawk MAX| CPU: RYZEN 7 5700X| RAM: 16GB(2x8) Corsair Vengence LPX DDR4@3200Mhz| GPU: Sapphire Radeon RX 6600 XT Pulse 8GB| PSU: Corsair RM850X ATX 3.1 850W| SSD: Kingston A2000 500GB NVme|Chassi: Fractal Design Define R4| OS: Win 11 pro | CPU-kylning: Noctua NH-U14S

Permalänk
Medlem
Skrivet av Fysman:

Du får ett 7700XT för under 5k och ett 7800XT för under 6k. Så knappast en "Bra produkt" för 6,7k

Nej, det har fått "bra produkt" för 5400 kronor vilket 5060Ti 16GB kostar hos t.ex. Inet.
Den specifika modellen fick negativt omdöme för hutlöst pris.

Permalänk
Medlem
Skrivet av Xverminator:

Sen kommer Ray Tracing optimeras inom kort så då blir det väl ett extra skutt

DirectX Raytracing 1.2 utlovar dubblerad prestanda
https://www.sweclockers.com/nyhet/40880-directx-raytracing-1-...

Använder inte nvidia redan mycket av det som utlovas med den nya directx? Tycker jag har hört att flera tech sites är väldigt skeptiska till att det här kommer göra någon stor skillnad. Åtminstone för Nvidia.

Kanske blir bra för AMD?

Permalänk
Medlem
Skrivet av ZaaphodBleebronx:

Kör IOS 18.3.2 på en Ipad pro , kan inte välja att se andra spel än Alan Wake med pilarna i speltesterna , testar ni hemsidan något?

@jreklund FYI

Permalänk
Medlem

Gör badgen konfigurerbar för användare så kanske vi slipper detta.

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av fue:

Så en som sitter på ett 2060, vad rekommenderar ni? Om nu detta kort sög. Och jag lirar 1440p, prisklassen är budgetvänligt.

Kunde inte se vilka svar du fått men jag skaffade ett 7700xt (saphire pulse) för runt 4800 för några månader sedan och det presterar fint i 1440 (som jag spelar i) 😊

Permalänk

Varför är inga billigare kort med från AMD och Nvidia, tex RX 7600 och RTX 4060, med i testet? Förutom intelkorten så ligger alla i testet över 4000kr vilket känns trist.

Visa signatur

Dator: CPU; Intel 2500K 4,2GHz Mobo; ASRock Z77 PRO4-M Intel Z77 GPU; Gigabyte GTX 650Ti OC 1GB PSU; Antec HCG 520-EC 520W RAM; Corsair Venegance Low Profile 2 x 4GB DDR3 1600MHz HDD; Seagate Barracuda 1TB 7200rpm 64MB Chassi; Fractal Design Arc Mini
Ljud: Ljudkort; Asus Xonar STX Hörlurar; Sennheiser HD 650, Sennheiser PC 161
Foto Kamer; Panasonic GF3 Objektiv; 14mm 2,5, 12-50mm 3,5-6,5, 45mm 1,8

Permalänk

Nvidia nvidia.....

Själv gick jag ifrån 3080 till ett 9070xt.
Och även om jag inte alls fick mitt 9070xt för MSRP så kan jag inte motivera att köpa 5080 eller 5090 för mellan 17-37k. Så mycket dyrare i tillverkningskostnad kan dom absolut inte ha blivit.
Samt bristfällig 12pins kontakt. Missing rops.

Nvidia väljer att använda 12pins på 5090 som ligger på runt 600watt vilket är precis vad 12pins kontakten och kabeln klarar. Bara det låter jävligt risky, men betoning på värme utveckling deluxe i kabel och kontakt...

Blir ju trevligt om man köper ett kort för 35k och kortet toppar över 600w i vissa senarion och kontakt eller kabel ger upp, kortet förstörs. Samt att det pratas om att det klassas som handhavande fel om det händer. Kul att ha slängt 35k i sjön ... För detta pris skall man kunna förvänta sig att allt är idiotsäkert. Kontakt och kabel skall vara idiot säkert. Sätt en jävla bygel som pressar kontakten på plats så att den männskliga faktorn försvinner. Gör om gör rätt nvidia!

Blev red devil 9070xt för mig denna gången 3st 8pins kontakter.

Sen förstår jag inte mig på Nvidia när 5070 får 12Gig Vram och 5060ti får 16gb.

Tack vare 12gig på 5070 så blev det ju ett haltande kort så fort upplösningen höjs. Vilket är väldigt synd..

Skjuter sig själva i foten ännu engång.

Visa signatur

AMD Ryzen 9 5950X 3.4 GHz 72MB . ASUS ROG CROSSHAIR VIII HERO (Wi-Fi) X570 , Gskill Royal Elite 32GB 3,600MHz DDR4 cl14 . NZXT Kraken Z73 360mm , ASUS Radeon RX 6800 XT TUF GAMING OC 16GB , WD Black SN850 Gen 4 SSD 1TB , 2 x Samsung 860 evo 500gb , 1x Samsung 860 evo 1tb , 1x Samsung 860 evo 2tb .

Permalänk

Det sjuka är väl att kortet fortfarande finns i lager för MSRP på t.ex. Inet. Nvidia måste ha bränt sitt rykte helt sinnessjukt mycket för att de inte ska sälja. 5399 för 7700XT performance med 10-15% OC headroom så man kan nå 4070, med 16GB GDDR7 för hobby-AI, DLSS4 och riktig SFF är faktiskt inte dåligt. Sen anser jag att kortet är typ 5% för dyrt. 399 (4999kr) hade varit rätt.

Permalänk
Medlem
Skrivet av twit:

Helt oavsett vad man personligen tycker om funktioner som uppskalning och bildrutegenerering är det uppenbarligen något som är både uppskattat och anses vara användbart av många spelare

Är detta verkligen korrekt? Tycker man får lite andra vibbar i kommentarsfälten. Låter mer som att man svalt N:s marknadsföring rakt av.

Permalänk
Medlem
Skrivet av viller2:

Är detta verkligen korrekt? Tycker man får lite andra vibbar i kommentarsfälten. Låter mer som att man svalt N:s marknadsföring rakt av.

Jag tror väldigt många uppskattar bra uppskalning och med senaste transformer modellen är det värt att slå på i nästan alla fall. Det är ”free performance” i hög utsträckning.

FG är inte lika bra men i vissa spel är det väldigt effektivt. Multi FG är ännu mer nischat men visst ger det bra resultat i vissa situationer, är dock en win-more feature.

I praktiken är ju 5060 Ti bra mycket snabbare än exempelvis 7700 XT tack vare dess mycket bättre uppskalare. FSR2/3 på 7700 XT kan matcha prestandan men till mycket sämre bildkvalitet.

Visa signatur

f0rest stan | Citera mera | Ryzen 9600X - ASUS Prime 9070 XT

Permalänk
Medlem
Skrivet av viller2:

Är detta verkligen korrekt? Tycker man får lite andra vibbar i kommentarsfälten. Låter mer som att man svalt N:s marknadsföring rakt av.

Enligt Sweclockers undersökningar så utnyttjar en majoritet uppskalningsfunktioner. Kommentarsfälten är nog inte särskilt representativa för varken Sweclockers eller marknaden som helhet utan det är främst de som är emot allt som har med Nvidia att göra som är mest högljudda.

Permalänk
Datavetare
Skrivet av Saagaa:

Detta är något av ett komplicerat påstående. Jag är inte på några sätt insatt i hur pipelinen av RT fungerar, men som jag har förstått det så hanterar RT-cores bvh traversal och endast det. Själva ljussättningen är fortfarande vanliga matrisoperationer vilket då kan utföras av de kärnor som vanligtvis utför raster. RT-cores används för att lösa ut geometrin, vanliga fpus för ljussättningen given geometrin. Alltså borde en gpu med extremt mycket raster vara väldigt bra på RT i en väldigt simpel scen med t.ex. en kub, då geometrin är simpel.

I spel så är såklart geometri viktigt men vart den optimala balansen mellan geometri och ren ljussättnings-throughput går är svårare att säga. Spel måste redan nu simplifiera geometrin då äkta ray-tracing annars skulle ta extremt lång tid. Jag säger inte att det är så men teoretiskt så kan man överdriva geometrin vs raster delen för att favorisera en viss arkitektur till mindre faktisk visuell fördel.

Hoppas min förståelse är fel, då detta surely innebär en rättning.

Det är tyvärr lite mer komplicerat än att man bara kan säga: RT-kärnorna hanterar BHV-traversal och CUDA-kärnorna hanterar ljussättning.

Skillnaden mellan hur shaders körs vid "vanlig rastrering" och hur de körs när de interagerar med RT-kärnorna går på flera sätt klart utanför "hur komplexa ljusberäkningarna är bara en funktioner av CUDA-kapacitet".

När man kör "vanlig rastrering" hanterar man typiskt ett visst material i "batcher", detta då det på flera sätt är mer effektivt. En orsak att GPUer har sådan utväxling på "många kärnor" är att dessa beräkningar typiskt har väldigt hög datalokalitet.

Raytracing gör problemet betydligt mer CPU-likt. Två strålar som skickas i nästan samma riktning kan träffa två väldigt olika material som kan hanteras av två helt separata shaders. Det fallet ska fungera!

Vidare kan ju en enskild stråle studsa och därmed själv träffa flera olika material. Så en GPU behöver kunna hålla ett mycket större kontext av shaders när man kör raytracing, det är en (av flera) orsaker till att det kan behövas mer VRAM när man kör RT.

TL;DR är att en GPU med sämre rastreringsprestanda kan ändå vara bättre på att hantera raytracing, även med hyfsat avancerad ljusberäkning per material om integrationen mellan "vanliga" kärnor och RT-kärnor är mer effektiv.

Att den är väsentligt mer effektiv på Nvidias GPUer just nu ser vi om inte annat i GPGPU-rendering i Blender där Nvidia krossar konkurrenterna. 5060 Ti presterar ca 40 % bättre jämfört med 9070 XT.

Skrivet av Querth:

Använder inte nvidia redan mycket av det som utlovas med den nya directx? Tycker jag har hört att flera tech sites är väldigt skeptiska till att det här kommer göra någon stor skillnad. Åtminstone för Nvidia.

Kanske blir bra för AMD?

Kollar man artikeln säger den

"Först ut är opacity micromaps (OMM) som kraftigt snabbar upp spårningen av ljusstrålar genom material som har något mått av genomskinlighet, som lövverk, hår och annat. Med OMM behöver shaderprogram inte köras lika många gånger, vilket kan snabba upp spel med path tracing upp till 130 procent.

Den andra nyheten kallas shader execution reordering och går ut på program kan ändra ordning på de olika delarna av renderingen under körning för att optimera utnyttjandet av grafikkortets resurser. Det här leder också till upp till dubbel prestanda, och Microsoft säger att funktionen banar väg för fler spel med path tracing."

Båda dessa låter väldigt mycket som förändringar på DirectX-nivå, inte på driver/GPU-nivå. Sen kan självklart GPU-mikroarkitektur och drivers dra mer eller mindre nytta av ovan. Men som beskrivet lär alla, inklusive Nvidia, se bra prestandaboost från detta.

Huvudpoängen verkar ju handla om att få i stort sett samma slutresultat med färre beräkningar. Om något borde det vara som mest viktigast för enklare GPUer, som t.ex. 5060 Ti.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Swedishchef_90:

3050 och 7500 xt säger hej 😂 om du har pcie 3 moderkort

Mjo det är rätt kassa de med, men de har iallafall en chans

Särskilt 1030 DDR4 känner jag är ju dåligt hur man än vänder och vrider det, finns inget sätt att göra det till annat än skräp typ.

Så trist som säg 3050 är, reflektera över att du fortfarande kan köpa ett 1030 DDR4 för runt tusenlappen medan du kan få ett 3050 för runt 2000kr. Nästan så 1030 DDR4 borde ha någon slags varning på lådan eller något, "använt inte om du har behov av mer än att bara kunna ansluta en skärm".

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Hedersmedlem
Skrivet av Yoshman:

Kollar man artikeln säger den

"Först ut är opacity micromaps (OMM) som kraftigt snabbar upp spårningen av ljusstrålar genom material som har något mått av genomskinlighet, som lövverk, hår och annat. Med OMM behöver shaderprogram inte köras lika många gånger, vilket kan snabba upp spel med path tracing upp till 130 procent.

Den andra nyheten kallas shader execution reordering och går ut på program kan ändra ordning på de olika delarna av renderingen under körning för att optimera utnyttjandet av grafikkortets resurser. Det här leder också till upp till dubbel prestanda, och Microsoft säger att funktionen banar väg för fler spel med path tracing."

Båda dessa låter väldigt mycket som förändringar på DirectX-nivå, inte på driver/GPU-nivå. Sen kan självklart GPU-mikroarkitektur och drivers dra mer eller mindre nytta av ovan. Men som beskrivet lär alla, inklusive Nvidia, se bra prestandaboost från detta.

Både OMM och SER är dock saker som NVIDIA utannonserade som nyheter när Ada kom, så det är som tidigare nämnt inget nytt för dem. De har använts ett bra tag nu trots att DirectX kommit ikapp först nu.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk

Hejsan.
Hade nog tänkt köpa en dator snart till spelande i 1080p. Vilket av dessa två alternativ, är mest framtidssäkert ?

1. Ryzen 7 7700 8 kärnor plus Radeon 9070 16GB eller RTX 5070 12 GB

2. Ryzen 7 7800 X3D 8 kärnor plus RTX 5060 TI 16 GB.

Jag tror det blir något av dom två alternativen där, till min budget, tänkte köpa hela lådan med allt det andra med. Så vilket hade ni köpt 1 eller 2 ?

Permalänk
Medlem
Skrivet av Rosenvik:

Bra produkt för MSRP-modeller som du kan boka idag, till MSRP.

Däremot borde du inte, enligt min mening, lägga 6800 kronor på ASUS RTX 5060 Ti Gaming OC.

Det här har jag svårt för. Du kan inte ge betyget "Bra produkt" i artikeln för att sedan skriva i ett forum inlägg att du inte hade lagt 6800 kr för den. Du säger ju emot dig själv. Alla som läser artikeln kommer inte läsa din kommentar.

Sedan när började man ge betyg för MSRP modeller när man recenserar toppmodeller? Vill minnas att när 9070 XT Red Devil recenserades så fick den betyget för priset 10700 kr inte för MSRP 8000 kr.

Oavsett hur okomplett ett betygsystem är så måste ni väl ändå vara konsekventa åtminstone.

Permalänk
Medlem
Skrivet av EneRgiZE_MFZ83:

Hejsan.
Hade nog tänkt köpa en dator snart till spelande i 1080p. Vilket av dessa två alternativ, är mest framtidssäkert ?

1. Ryzen 7 7700 8 kärnor plus Radeon 9070 16GB eller RTX 5070 12 GB

2. Ryzen 7 7800 X3D 8 kärnor plus RTX 5060 TI 16 GB.

Jag tror det blir något av dom två alternativen där, till min budget, tänkte köpa hela lådan med allt det andra med. Så vilket hade ni köpt 1 eller 2 ?

Skulle säga att det beror lite vilka spel du tänker köra, det finns spel som verkligen tycker om X3D processorerna, båda alternativen har meriter (fast just 7800 x3d finns i princip ingen poäng att köpa över 9800 x3d vilket borde vara processorn i alternativ 2). Men i regel brukar det alltid vara bättre att spendera mer på grafikkortet än processorn om möjligt, så alternativ 1 lär ge bättre spelprestanda.

Ca 2700 kronor prisskillnad mellan 7700 och 9800 x3d jämfört med 3100 kronor prisskillnad mellan 9070 och 5060 Ti.

Edit: Ekvationen med 7800 x3d har kanske förändrats sedan jag kollade på det här senast, den kostar nu 4900 kr, dvs. bara 1600 kronor mer än 7700 (ca 1200 kronor billigare än 9800 X3D). Tror du borde skapa en egen tråd för det här ämnet om jag ska vara ärlig (om än att 7800 x3d fortfarande kostar betydligt mer än när det var som billigast under 2024).

Permalänk
Medlem
Skrivet av Icetec:

Jag har missat att framegen presterar annorlunda baserat på om det är ett singleplayer- eller multiplayerspel. Utveckla gärna, jag är väldigt nyfiken då jag trodde att framegen skedde lokalt i datorn och inte påverkades av nätverk.

Häftig attityd.

Framegen är framegen, det som sker är att multiplayerupplevelsen blir sämre:
1. Kan höja input lateny, skapar en känsla av desynch i snabba spel.
2. Interpolering mellan frames, det du ser är inte del av spelets logik. Det servern ser är inte baserat på vad du ser.
3. Speltillverkare vet detta, därför disablar dom funktionen för att undvika skillnad mellan visuals och gamestate.

Permalänk
Medlem
Skrivet av perost:

Enligt Sweclockers undersökningar så utnyttjar en majoritet uppskalningsfunktioner. Kommentarsfälten är nog inte särskilt representativa för varken Sweclockers eller marknaden som helhet utan det är främst de som är emot allt som har med Nvidia att göra som är mest högljudda.

Det är väl ofta på som default? Frågan borde väl snarare vara hur många som aktivt slår på det och som faktiskt gillar det.

Uppskalning blir bara en ursäkt för spelutvecklare att inte optimera sina spel, påhejade av N som tjänar grova pengar på allt vad AI heter.

Permalänk
Medlem
Skrivet av twit:

Betygen sätts rimligen i samband med kortsläppen, eller hur? Då kostade B570 och B580 ungefär lika mycket medan det sistnämnda presterar påtagligt bättre. B580 fick utmärkelsen "bra produkt" medan det till samma pris sämre presterande B570 inte fick det.

Utöver det är det givetvis fler faktorer än enbart prestanda per pris som utgör grund för betygsättningen. Helt oavsett vad man personligen tycker om funktioner som uppskalning och bildrutegenerering är det uppenbarligen något som är både uppskattat och anses vara användbart av många spelare vilket då självklart påverkar viket omdöme en produkt ges. Intels kort ligger klart efter på den fronten, och det bör också återspeglas i bedömningen av deras produkter.

Problemet är att måttstockarna är skeva.
Först utgår ni från hur Nvidia's kort skalar och efter det så jämför ni både B580 & B570 med prestandan av ett 4060 Ti, men jämför priset av ett 4060 som 4060 finns inte ens med i den nya testsviten. (Jag anar direkt ugglor i mossen)

Alla B570's nackdelar stämmer ju inte:
1. RTX 4060 gör det bättre - för samma pris (3300 =3490?)
2. Arc B580 gör det bättre - för samma pris (3390 =3300 = 3490?)

4060 har ju inte ens testats i testsviten, hur kan man ens ha med det som måttstock då?
Sedan på B580's recension kan man läsa:

Alla B580's nackdelar:
1. ...men fortfarande inte på samma nivå som Nvidia (vilket Nvidiakort?, 4060 slår INTE B580 utom möjligen i bildruteinterpolering, men det har ni ju inte ens testat, var är XeLL mot DLSSFG testerna? B580 ligger ju över 4060 i SweClockers prestanda index dessutom.)
2. Halkar efter Nvidia i ray tracing-prestanda (Jag tror inte på er! Gör gärna ett test som använder mer än 4 spel i 1080p och 2 syntetiska i 1440p där det ena är uppenbart fel då A750 slår B580 för att visa på det. Dessa tester är faktiskt mer missvisande än Nvidia's egna.)

Men nu är vi i 5060Ti tråden, vad menas egentligen med:
"Tyst och överdimensionerad kylare på Asus RTX 5060 Ti Gaming OC" + "Högljudd och överdimensionerad prislapp på Asus RTX 5060 Ti Gaming OC" = det tolkar jag som "Dyr kylare på Asus RTX5060 Ti"

"Best in class uppskalning med DLSS 4" + "DLSS 4 är mer opt-out än opt-in" = Bästa kryckan?

Sedan är väl detta ett tveeggat svärd, som bäst:
"Kommer i två minneskonfigurationer"

Var är jämförelsen mot andra kort, hade det varit konsekvent hade det ju stått:
Nackdelar:
1. RX7800XT gör det bättre - för samma pris. (5399Kr resp 5669Kr (4490Kr på megaklick))
2. RTX4070 gör det bättre - för samma pris som Asus RTX5060 Ti.

Visa signatur

*5800X|B550M|64GB|RX7800XT|GX750W|Core V21|280AIO|2TB+2TB|1440p 240Hz

AMD Ryzen 7 @4,95GHz|Gigabyte Aorus Elite(rev1.3)|Corsair 2x32 LPX Vengeance 2666C16 @3600C20|Asus DUAL OC @990mV, 3,2/2,6GHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 4.0x4 Samsung 980 Pro 7000/5100 + 2,5" HDD Toshiba 1TB & Seagate 1TB i RAID 0|Acer Nitro XV272Uz 27" IPS 270Hz @240Hz.

Permalänk
Datavetare
Skrivet av Thomas:

Både OMM och SER är dock saker som NVIDIA utannonserade som nyheter när Ada kom, så det är som tidigare nämnt inget nytt för dem. De har använts ett bra tag nu trots att DirectX kommit ikapp först nu.

Fast här måste man hålla isär: "finns stöd i HW", vilket i Nvidias fall du säger finns sedan Ada (kan mycket väl stämma). Och huruvida spelet/applikationen använder OMM och/eller SER som båda kräver att man explicit stödjer via DX12 APIet.

Detta är långt ifrån den första funktionen i Direct/Vulkan etc där det finns HW-stöd som under en tid inte kan användas. Vulkan/OpenGL har i.o.f.s. möjligheten att exponera sådant via extensioner. DirectX har ett API för att exponera valbara funktioner, vilket både OMM och SER är i DX12 ultimate DirectX raytracing v1.2, men det saknas (så vitt jag vet) möjlighet att exponera propretära 3:e-parts extensioner likt vad som är möjligt i OpenGL/Vulkan.

I.e. OMM/SER kan inte utnyttjas "automagiskt". Det krävs både tillräckligt ny version av DirectX och explicit stöd från titeln.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer