Battlefield V med ray tracing – redaktionens första intryck

Permalänk
Medlem
Skrivet av Svensktiger:

Strålspårning/strålföljning på wikipedia sedan 2005:
https://sv.wikipedia.org/w/index.php?title=Str%C3%A5lf%C3%B6l...
Vi säger hårddisk.
Vi säger tangentbord.
Vi säger (dator)mus.
Musmatta.
E-post.
Snabel a.
etc.
etc.
Tycker verkligen att man bör använda svenska ord när det går.
Att köra med svengelska är ju oftast ren lathet.
Och precis som att svära nånting man kan träna bort.

Ja, för alla dina exempel är vedertagna fackuttryck och därmed helt OK. Vilket är min poäng, det är inte strålspårning. Är det inte bättre att använda termen som flest svenskar är bekant med? Och skall vi vara såna är inte ens den nu väldigt löst definierade svenska termen strålspårning, utan strålgångsberäkning. Men som du ser i branschordlistan används den normalt sett inte.

Visa signatur

WS: Asus X570-E, Ryzen 5900x, 2x16GB Ballistix E-die, EVGA 3080 FTW3 Ultra
FS: Asus X370-F, Ryzen 3600, 4x8GB G.Skill Flare, GT710, CM Stacker
HTPC: Asus F2A85-M, A10-5800K, 2x4GB G.Skill 2133MHz

Permalänk
Medlem
Skrivet av m3tr0:

Det var det första jag tänkte när jag hörde talas om RTX-serien.

Skickades från m.sweclockers.com

Han har fel.

RT-kärnorna är inte samma sak som Tensorkärnorna.

Visa signatur

macOS: MacBook Air 13" [M1/16/256GB], MacBook Pro 16" [M2/32/512GB], iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 6 44mm [LTE], LG 77" OLED C2 [OLED77C25LB]
The purpose of morality is to teach you, not to suffer and die, but to enjoy yourself and live. --Ayn Rand
Skriv under ett upprop för en grönare energipolitik: https://energiupproret.se/

Permalänk
Medlem

Jag tycker det är oerhört kul att ray tracing nu kommer till spel! Och i realtid. Det känns som att de på forumet som inte vill ägna sig åt "ray praising" troligtvis inte riktigt förstått beräkningskomplexiteten bakom. Uttalanden som att "det är en gimmick som kommer att dö" kommer nog att kännas pinsamma om ett par år. Och prestandan är bättre än vad jag förväntade mig, mycket roligt. Heja Nvidia! Det säger jag inte ofta...

Fast jag skulle ändå önska att det med lanseringen skulle kommit en speltitel som samtidigt utnyttjade hela det spektrum som dagens strålspårningsmodeller är tänkta att lösa; dvs en titel som samtidigt kombinerade skuggor, reflektioner och ljussättning mha ray tracing, och den sammanlagda prestandaförlusten för att göra det. Det handlar ju idag om en förenklad lösning som försöker få ner minsta kvadratfelet jämfört med den "sanna" bilden till en acceptabel nivå med hjälp av minimalt antal sampel och denoising för att klara realtidskraven. Det är inte fel, men en sorts "fusk" fortfarande, om man så vill. Bara mer avancerat än tidigare.

Som det nu är, när varje speltitel än så länge bara verkar få hantera en funktion av dessa tre, känns det mest som ett proof of concept, en teknikdemo, att visas på dyr hårdvara. Kul, men dyrt. Dagens RTX-kort behöver visa att de är kraftfulla nog att klara av alla funktionerna samtidigt i realtid. Först då tycker jag man egentligen kan bedöma vad dagens RTX-lösningar är värda. För kan de inte det, känns det som att hårdvaran har släppts en generation för tidigt, och de som har köpt har fått betala Nvidia dyrt för ett löfte om funktioner som inte levererats fullt ut. Det återstår alltså att se om jag också kommer att kunna säga "heja Nvidia" för det.

Men i grunden alltså en bra och rolig utveckling för tekniken som sådan!

Det finns väldigt intressanta videor att allmänbilda sig genom på Nvidias sidor:
https://devblogs.nvidia.com/ray-tracing-games-nvidia-rtx/

Permalänk
Medlem

https://www.techpowerup.com/reviews/Performance_Analysis/Batt...

måste kännas bra att lägga 13k+ för att få samma FPS som mellanklasskort.

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Relik 📜

Fast ett sådant konstaterande är ju lika skevt åt andra hållet? Som att säga "ett GTX 1060 är lika bra som ett Vega 64, om 1060-kortet kör Medium och Vega-kortet Ultra". DXR/ray tracing är ju de facto samma sak som att vrida upp kvalitetsreglaget ytterligare en nivå.

Sedan om prestandan är tillräcklig är en helt annan femma, men jämförelserna mot andra kort borde i alla fall vara rimliga.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem
Skrivet av bopp:

Jag tycker det är oerhört kul att ray tracing nu kommer till spel! Och i realtid. Det känns som att de på forumet som inte vill ägna sig åt "ray praising" troligtvis inte riktigt förstått beräkningskomplexiteten bakom. Uttalanden som att "det är en gimmick som kommer att dö" kommer nog att kännas pinsamma om ett par år. Och prestandan är bättre än vad jag förväntade mig, mycket roligt. Heja Nvidia! Det säger jag inte ofta...

Fast jag skulle ändå önska att det med lanseringen skulle kommit en speltitel som samtidigt utnyttjade hela det spektrum som dagens strålspårningsmodeller är tänkta att lösa; dvs en titel som samtidigt kombinerade skuggor, reflektioner och ljussättning mha ray tracing, och den sammanlagda prestandaförlusten för att göra det. Det handlar ju idag om en förenklad lösning som försöker få ner minsta kvadratfelet jämfört med den "sanna" bilden till en acceptabel nivå med hjälp av minimalt antal sampel och denoising för att klara realtidskraven. Det är inte fel, men en sorts "fusk" fortfarande, om man så vill. Bara mer avancerat än tidigare.

Som det nu är, när varje speltitel än så länge bara verkar få hantera en funktion av dessa tre, känns det mest som ett proof of concept, en teknikdemo, att visas på dyr hårdvara. Kul, men dyrt. Dagens RTX-kort behöver visa att de är kraftfulla nog att klara av alla funktionerna samtidigt i realtid. Först då tycker jag man egentligen kan bedöma vad dagens RTX-lösningar är värda. För kan de inte det, känns det som att hårdvaran har släppts en generation för tidigt, och de som har köpt har fått betala Nvidia dyrt för ett löfte om funktioner som inte levererats fullt ut. Det återstår alltså att se om jag också kommer att kunna säga "heja Nvidia" för det.

Men i grunden alltså en bra och rolig utveckling för tekniken som sådan!

Det finns väldigt intressanta videor att allmänbilda sig genom på Nvidias sidor:
https://devblogs.nvidia.com/ray-tracing-games-nvidia-rtx/

Tror det kommer dröja innan spel kommer utnyttja det fulla spektrumet av vad RT har att erbjuda. Dynamiska ljuskällor och skuggor började ju komma sent 90-tal och den grunden har vi itererat på fram till idag. Men det intressanta är att vi fortfarande använder statiska skuggor, ljus och reflektioner där det är mest passande. Av både artistiska och prestandamässiga skäl. Så det är något liknande jag tror kommer hända framöver med RT, att man använder det där det gör mest skillnad i kombination med traditionella tekniker.

Fram tills dess att det blir mer praktiskt att bygga spel gjorda för RT i grunden. Men känns som sagt som det ligger kanske en 5+ år framåt.

Visa signatur

MSI B650 Tomahawk / AMD 7800X3D / 2x16 GB Kingston Fury 6000Mhz DDR5 / ASUS TUF RTX3080 10GB / Corsair RM850x Shift / + Acer Predator XB27HU / Schiit Fulla 2 + Sennheiser/Massdrop 58X + XTZ Tune 4

Permalänk
Medlem

Skillanden på low och ultra är nästan omöjlig att se. Men att köra på low och strålspårning på ger troligen bra ögongodis till alla med Nvidia 2000 kort så grattis till er som köpt

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem

Det jag ser fram emot är ju när första Vulkan RTX-spelet kommer. Vi vet ju vilken prestandaboost Vulkan var i Wolfenstein och Doom tex .

Tycker ändå att resultaten är mycket bättre än förväntat med tanke på att spelmotorn inte är byggd för DXR från början, och det är första drivarrutinerna som stödjer det hela.

Som sagt, när allt börjat optimera sig lite, och första Vulkan-spelet med RTX kommer ut, då kommer vi få se rätt fina spel.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem

Ser ***** snyggt ut iaf

Visa signatur

i5 10400f | asus b460-f | 2x8gb kingston 2666 | zotac 3060ti | corsair mp510 960gb (OS) + samsung 860 evo 1tb + 2x kingston a400 480gb | corsair vx450 | tr true black | fractal r3 | asus mg279q + lg w2363d | dt 880 | win 10 x64 | deathadder chroma | glorious 3xl | tb impact 600 | oculus quest 2

Permalänk
Medlem
Skrivet av Svensktiger:

Strålspårning/strålföljning på wikipedia sedan 2005:
https://sv.wikipedia.org/w/index.php?title=Str%C3%A5lf%C3%B6l...
Vi säger hårddisk.
Vi säger tangentbord.
Vi säger (dator)mus.
Musmatta.
E-post.
Snabel a.
etc.
etc.
Tycker verkligen att man bör använda svenska ord när det går.
Att köra med svengelska är ju oftast ren lathet.
Och precis som att svära nånting man kan träna bort.

Orden hårddisk, tangentbord, datormus, musmatta, e-post, och snabel-a finns alla i SAOL.

Strålspårning och strålföljning finns inte i SAOL, trots att de har använts på wikipedia sedan 2005...

(Wiki finns däremot också i SAOL.)

---

Förövrigt... Språknamn versaliseras inte i svenskan, de versaliseras dock i engelskan och tyskan...

Permalänk
Medlem
Skrivet av martinot:

Helt fel det du skriver ovan.

RT-kärnorna != Tensor-kärnorna.

Que?
Jag är fullt medveten om att RT-kärnorna inte är de samma som Tensorkärnorna.
Bägge är hårdvara utöver de "vanliga" Cudakärnorna. Tensorkärnorna kan användas för de-noise och/eller DLSS. RT-kärnor gör just vad dom ska göra, räknar ut strålspår.

Vad är din poäng?

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem

Ray-fail ser jag alltihopa är just nu.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem
Skrivet av pv2b:

Varför har Sweclockers redaktion slutat använda det svenska ordet strålspårning för att istället skriva på engelska?

Kanske för att man insåg hur korkat det var att börja översätta alla grafikinställningar på ren princip och isolera sig från resten av branschen. Horisontbaserad omgivande inneslutning, liksom? Blir säkert kaskader av Google-resultat på de artiklarna. I vilket fall njuter jag över att de accepterade sin förlust och bytte term i tystnad från förra gången, särskilt eftersom att de försvarade översättningen till döden då.

Visa signatur

Bara fanboys kallar folk för fanboy!

Permalänk
Medlem

Är förvånad att Nvidia inte pushade DLSS samtidigt som raytracing, skulle antagligen gjort raytracing lättare att svälja och det skulle gett samma prestanda som att köra utan DLSS och raytracing (om man ska tro det test som existerar samt marknadsföringen). Undrar också starkt var det teoretiska maximum går för tensor och turing kärnorna i grafikkortet. Har haft intrycket att de fungerar helt separat från de vanliga cuda kärnorna och då är väl frågan om grafik inställningarna ens spelar roll i bfv om man slår på raytracing, renderings tiden kanske begränsas helt av någon av de kärnorna, sedan är väl också frågan om de delar på strömbudgeten för cuda kärnorna eller om de har en egen budget.

Permalänk
Medlem
Skrivet av CubaCola:

Det jag ser fram emot är ju när första Vulkan RTX-spelet kommer. Vi vet ju vilken prestandaboost Vulkan var i Wolfenstein och Doom tex .

Tycker ändå att resultaten är mycket bättre än förväntat med tanke på att spelmotorn inte är byggd för DXR från början, och det är första drivarrutinerna som stödjer det hela.

Som sagt, när allt börjat optimera sig lite, och första Vulkan-spelet med RTX kommer ut, då kommer vi få se rätt fina spel.

Givet ur vulkan specifikationen så skapas en ny pipeline som är oberoende av föregående graphics och compute pipelines. Denna pipeline kommer (förmodligen) att hanteras på exakt samma sätt som DX12 implementationen av RTX korten. Då samma kod exekveras blir resultaten förmodligen desamma, givet att drivers är på samma nivå.

Varför du såg så bra prestanda i doom och wolfenstein har både allt och inget att göra med Vulkan. Allt, för att lågnivå API:et ger större möjligheter att göra optimeringar, och inget, för att det var skickligheten bakom programmerarna, och även 4 pers från AMD och 5 personer från NVIDIA som hjälpte till samtidigt (det här är ytterst ovanligt). Det tog 3 månader att göra en full konvertering från OGL till Vulkan för dem om jag minns rätt. I wolfenstein 2 finns en "metod" som fungerar på ett "liknande" sätt som Primitive shaders/mesh shading där man använder sig av compute accelererad culling (implementerad av AMD för Vega). Det är därför du ser en så pass stor prestandaförbättring jämfört med doom för RTX korten. Ingenting hindrar en från att göra exakt samma sak i DX12 vad jag vet.

Om RTX vore den begränsande faktorn (svårt/omöjligt att avgöra hur stor del av raytracing tiden som sker asynkront baserat på benchmarket här. Denoise biten som sker efter att allt annat är färdigt kan likväl vara orsaken med 3,8ms högre renderingstider för DXR low i 1440p jämfört med utan) så är det irrelevant om man använder det i Vulkan eller DX12, tyvärr. Jag har inte större förväntningar att det magiskt ska gå mycket snabbare i Vulkan, då mer eller mindre samma optimeringar kan göras i DX12.

Permalänk
Medlem

Mkt neggo riktat åt nvidia. Ingen som lägger någon skuld på Dice? De har ju faktiskt bara haft korten en väldigt kort tid. Hur hade prestandan sett ut om spelet från början var designat för RT? Osv osv

Tycker det är helt sjukt att man kan köra RT i realtid, det var inte då längesen en framme tog en timme att rendera.

Skickades från m.sweclockers.com

Permalänk
Medlem

Oavsett om det funkar lysande sen med dagens 2000 serie eller om vi måste vänta så tar det många år innan gemene man kan ha det.
Priserna på grafikkorten på tok för höga. Sen vet vi inte om hur dagens kort klarar RT om två år o senare.
Hur kommer det att påverka priserna på nya och begagnade kort?

RT är sweet som attan men lär vara en lyxvara ett bra tag. Synd.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

3840x2160, Ultra, DXR Low, och får 50-60fps+ med resolution scale nerdraget till 65%. Spelbart men inget jag kommer att använda i multiplayer, om jag inte hade en 1080p display. Rotterdam och Twisted Steel är riktigt snyggt med DXR på.

Permalänk
Avstängd
Skrivet av emilakered:

Fast ett sådant konstaterande är ju lika skevt åt andra hållet? Som att säga "ett GTX 1060 är lika bra som ett Vega 64, om 1060-kortet kör Medium och Vega-kortet Ultra". DXR/ray tracing är ju de facto samma sak som att vrida upp kvalitetsreglaget ytterligare en nivå.

Sedan om prestandan är tillräcklig är en helt annan femma, men jämförelserna mot andra kort borde i alla fall vara rimliga.

Den grafiska skillnaden är ju ändå väldigt liten och något som ingen egentligen lägger märke till vid "high octane" spelande.

RT fungerar bättre för spel som har en lägre pace. Något med mycket reflektioner. Metro Exodus så var det ju knappt några visuella skillnader.

Om BFV hade screenspace reflections så hade nog få ens sett några större skillnader vid jämförelsebilder. Något som BFV endast verkar ha för himlen.

Permalänk
Medlem

Nyfiken på vad RT skulle kunna göra för Ori and the Will of the Wisps .

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av mill:

Mkt neggo riktat åt nvidia. Ingen som lägger någon skuld på Dice? De har ju faktiskt bara haft korten en väldigt kort tid. Hur hade prestandan sett ut om spelet från början var designat för RT? Osv osv

Tycker det är helt sjukt att man kan köra RT i realtid, det var inte då längesen en framme tog en timme att rendera.

Skickades från m.sweclockers.com

Varför skulle man lägga någon som helst skuld på Dice?

Det är Nvidia som lanserade RTX, det är upp till dem att involvera spelutvecklare osv tidigt så att det finns spel med mera som utnyttjar det.

Helt klart valde de att inte göra det, vilken innebar att det blev en lansering där det varken fanns spel eller ett operativsystem som kunde utnyttja den nya tekniken när det släpptes. Gäller RTX men även DLSS.

Permalänk
Inaktiv

Hade nog kört på medium..verkar vara en vettigt nivå.

Som alla visste så är det en totalt onödig funktion ännu men kul att man börjat. Bf5 är vsckert raytracing har varit ett gyllene mål i årtionden. Ser fram emot att lira i VR om 2-3 år. Förhoppentligvis stånkar gpu'erna på i 5nm då och ett dual setup har nog med kraft att köra två ögon med raytracing och ännu mer detajler i 100fps+. Man kan alltid hoppas.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av mill:

Mkt neggo riktat åt nvidia. Ingen som lägger någon skuld på Dice? De har ju faktiskt bara haft korten en väldigt kort tid. Hur hade prestandan sett ut om spelet från början var designat för RT? Osv osv

Tycker det är helt sjukt att man kan köra RT i realtid, det var inte då längesen en framme tog en timme att rendera.

Skickades från m.sweclockers.com

Dice har haft ett DX12 val i sin motor i flera år och inte fått det att funka, skulle inte sätta mycket för att de hade gjort mkt bättre om de designat motorn med RT i åtanke.

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Hjälpsam
Skrivet av mill:

Mkt neggo riktat åt nvidia. Ingen som lägger någon skuld på Dice? De har ju faktiskt bara haft korten en väldigt kort tid. Hur hade prestandan sett ut om spelet från början var designat för RT? Osv osv

Tycker det är helt sjukt att man kan köra RT i realtid, det var inte då längesen en framme tog en timme att rendera.

Skickades från m.sweclockers.com

Det är bara delar som strålspåras, reflektioner i vattenpölar, fönster och blanka krigstidsbilar.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Avstängd

Jag har ALDRIG sett användningsområden för tex 1080ti och ännu mindre 2080ti om man spelar i 1080/1440.

Mitt 980ti totalt demolerar spel och ligger runt 60-120 FPS i 2560x1440 i Battlefield 1 tex.

Nu finns det faktiskt en anledning till att köpa sig 2080ti även i lägre upplösning (vem spelar 4k 60 hz?)

Ovan nämnda FPS är givetvis utan Anti-aliasing pg att man inte märker någon som helst skillnad och det slår extremt på prestandan. Med Raytracing ser det ju totalt annorlunda ut

Permalänk

Vad folk gnäller. Det är väl minimum-fps ändå som gäller och tycker att man får tillräckligt mycket nytta av raytracing på minimum-nivån.

Då ifall man jämför minimum på "off" med "low" så tappar man eh.. bara 24%

Ifall man ändå har över 60 fps så tycker jag det är helt fine. Ray tracing är framtiden.

Permalänk
Medlem
Skrivet av Xcm:

Jag har ALDRIG sett användningsområden för tex 1080ti och ännu mindre 2080ti om man spelar i 1080/1440.

Mitt 980ti totalt demolerar spel och ligger runt 60-120 FPS i 2560x1440 i Battlefield 1 tex.

Nu finns det faktiskt en anledning till att köpa sig 2080ti även i lägre upplösning (vem spelar 4k 60 hz?)

Ovan nämnda FPS är givetvis utan Anti-aliasing pg att man inte märker någon som helst skillnad och det slår extremt på prestandan. Med Raytracing ser det ju totalt annorlunda ut

(vem spelar 4k 60 hz?) o/

Permalänk
Medlem
Skrivet av Xcm:

Ovan nämnda FPS är givetvis utan Anti-aliasing pg att man inte märker någon som helst skillnad och det slår extremt på prestandan.

1080p utan AA blir ju som Minecraft.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem

Alltid kul med ny teknik, men att få halverad FPS på ett kort för 15k får "den nya tekniken" känns inte som en jätte bra sälj pitch, men som sagts innan den måste krypa innan den kan gå.

Visa signatur

Main
MOBO: Gigabyte B550M DS3H, CPU: AMD Ryzen 5 5600, RAM: 2x16B @ 3600MHz, GPU: RADEON RX5700 Flashat till XT, SSD: WD BLACK SN750 SE 1TB nVME, 2x1TB Sata SSD Chassi, : Fractal Design Node 804, PSU: Corsair RM1000e, Skärm: Philips 27M1N3500LS.

Permalänk
Medlem
Skrivet av martinot:

Tycker att det var mycket bättre än väntat, och hurvida 60 fps är lågt eller högt är nog en definitionsfråga. Bara för några år sedan så var det högt på PC, och är än idag högt på tex. konsol (som många här inte backar för med rätt spel).

Tror den största frågan gällande krav på fps är om man tävlar mot andra eller spelar själv för att njuta av spelet.

Absolut!

Helt klart mycket bättre än vad de flesta förväntat sig. Riktigt positivt överraskad personligen. Även om jag tyckte att man skulle avvakta med verkliga tester innan domedagsprofetiorna. Ser fram emot mer spel. Mer titlar med stöd för detta är helt klart vad som behövs nu (när det visat sig ha potential)!

Håller med. Det var iaf "spelbart" och en funktion som jag kan tänka mig några vill ha.
Men... när jag säger "några", menar jag folk som spenderat 10kkr+ på en GPU, och som spelar singleplayer, vilket är en väldigt liten marknad.

Skrivet av martinot:

Japp. Precis som AA och all annan teknik som det klagas på av alla pessimister.

Kan ju säga så här; förutspår att RT redan inom ett år har större spelutbud och praktisk användning än all VR de senaste tio åren.

Tror jag får hålla med @Ratatosk i hans detalj dock.

Normalt lägger du extra på ett grafikkort, för att få bra prestanda. Att då få prestandan av ett Fury X, för 13kkr, känns... fel. Ja du kan trimma ner kvalitén och få lite mer, men det kan Fury X kortet också.

Tekniken i sig, håller jag med dig har potential, men det är på tok för stor uppoffring mellan 148/113 och nånstans mellan 93/70 och 77/54. Det är som att... jag kan köpa ett 2080Ti, men... jag nöjer mig med ett 1070s prestanda.

Närmast jag kan tänka mig är tidiga dagars AA. När tekniken gjorde allt riktigt snyggt (inte vara en pöl av vatten), men samtidigt fick du så dålig prestanda att det kändes meningslöst. Så jag delar inte din teorin om VR vs detta... det kräver för mycket av hårdvaran, för en liten detalj. High-settings...no problem, Ultra... and its a GIF. Som sagt... 4k upplösning, eller 1440 med RTX är dina val verkar det som.

En intressant teknik dock. Det är utan tvekan "någon" nytta av det, men det är lite som "development-kit" av VR just nu...