Nvidia visar ray tracing i realtid i Battlefield V

Permalänk
Medlem

tänk om intels CPU'er kunde utvecklas i samma takt

Permalänk
Medlem

Skitsnyggt skitspel.

Älskade de första Battlefield spelen. Hur kunde de sen förstöra dem så????

Men snyggt som fasen va det.

Skickades från m.sweclockers.com

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Medlem

Intressant blir hur dessa presterar i spel och applikationer utan ray tracing.

Permalänk
Medlem

Många verkar glömma att vi redan har spel som ser riktigt bra ut. Crysis 3. DeusEx med vacker ljussättning samt reflektioner och Alien Isolation med gott om skuggor överallt. Nya Doom osv...
Vissa bilspel har också haft snygga skuggor och reflektioner i många år nu. Det utan ray tracing.

Visst är ray tracing intressant och kan höja upplevelsen i vissa spel men till vilket pris (lägre prestanda)? Vi har inte fått se några prestandatester med och utan ray tracing. I spel som Battlefield är det förmodligen bättre att ha högre fps än att se snygga reflektioner i glasrutor eller blankt polerade bilar.

Dessutom är jag lite förvånad att spel som Cyberpunk 2077 och Star Citizen inte fanns med på listan över spel som kommer att använda den nya teknologin. För min del så fanns det bara ett enda spel där som var intressant och det är Metro Exodus.

På sikt när tekniken har mognat så är detta ett stort steg frammåt mot fotorealistiska miljöer i spel men just nu känns det bara som ett försälningsknepp för att få ut Nvidias Turing chipset till den stora massan och till ett pris som inte alls är befogad ur konsumentens synpunkt dock perfekt ur tillverkarens synpunkt så dessa kan sälja både nya och gamla GPU:s till löjliga priser.

Permalänk
Medlem
Skrivet av HinFoo:

tänk om intels CPU'er kunde utvecklas i samma takt

nVidia och Intel har ju samma utrullning av nya tekniker, alltså nästan aldrig! Och när de händer det är det bara en refresh och själva prislappen som uppdaterats!

Permalänk
Medlem
Skrivet av hg:

Det var i samma segment som han pratade om RTX ops eller vad det nu hette så jo, det rörde sig specifict om prestanda i ray-tracing scenarier.

Okej, du bestämmer vad du tycker han menade. Som jag sa dock prestanda i RT är flera faktorer större än Pascalkorten hävdas det från nVidia men du menar att de är tvetydiga om detta vilket jag aldrig sett från Jensen tidigare.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Xinpei:

Ungefär som när Läder-Jensen påstod att Nvidia uppfunnit GPUn.

De var först med den första GPUn med GeForce 256 sen om det räknas som "uppfunnit" är väl upp till var och en. Det var dock denna kort och dess omedelbara uppföljare som beseglade 3DfX öde.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av femkantig:

nåja kul med open beta iaf... fast det luktar reskin av ettan lång väg... med mer korrekta reflektioner om man orkar lägga 7k extra

Trodde jag med tills jag körde Alphan helt annan känsla i V

Skickades från m.sweclockers.com

Permalänk
Medlem

Bokat och klart!

Permalänk
Medlem
Skrivet av Triton242:

Set det positiva. Med RTX påslaget har vi inte längre nytta av 144hz skärmar på flera år. Sparar lite pengar på ett nytt datorköp alltså ;=)

Lite seriöst:
Detta kanske inte kommer att bli någon jätte hit med första kortet rent spelmässigt men jag gillar ändå detta skarpt!
I fler år har det mest handlat om att höja upplösningen när jag hela tiden önskat att objekt och skuggor m.m är det man skall jobba på.
Nu verkar mina böner blivit besannade och jag tycker även om just detta kortet troligen inte kommer besitta tillräckligt med gigaray prestanda så är det något i rätt riktning.

Grejen med att öka upplösningen är väl just att få rum med fler detaljer och potentiellt lägga ner AA helt utan förlust.
Sen är ju frågan hur stort ray tracing kommer bli när det bara är nvidia som stödjer RTX. Kommer det en mer öppen standard som funkar även på AMD och kommande Intel så kommer det nog ta fart mer.

Skrivet av Xinpei:

23 fps är ju verkligen ruskigt bra. Sedan så jämfördes det med Gameworks... en annan "revolutionerande ide" som aldrig blev något. Precis som PhysX. Alltså halvfärdiga tekniker som släpptes för tidigt och blev inget.

Skickades från m.sweclockers.com

Jag misstänker starkt att problemet inte är halvfärdiga tekniker utan snarare att det är proprietära tekniker som bara funkar om man kar nvidiakort. Det är nog snarare där skon klämmer.

Permalänk
Datavetare
Skrivet av Ratatosk:

Oj vad blank lacken på bilen var! tänk att man hade tid att putsa så under kriget, likaså soldaternas hjälmar, fina och blankpolerade.

Det är tyvärr ett inneboende problem med raytracing, allt ser orimligt rent och slätt ut. Man får se det positiva, i den raytracade världen behövs inget RUT-avdrag för städning

Skrivet av hakd:

"Enligt Nvidia själva kan ett Turing-baserat grafikkort rendera det Star Wars-demo som visades med cirka 22 bilder per sekund, medan Geforce GTX 1080 Ti landar på strax över tre bilder per sekund."

Nvidia gör vad dom är bäst på, utveckla tekniker så äldre generationers kort blir värdelösa snabbare.
Det luktar Gameworks lång väg när Nvidia började medvetet straffa sina äldre kort och AMDs kort.

10k+ för under 30fps i cutscens, ja folk köper verkligen allt.

Nu vet jag naturligtvis inte om Nvidia anlitat en torped som alltid tvingar dig att slå på alla Gameworks finesser hela tiden. Annars är det faktiskt så att DirectX raytracing (DXR) (som på Nvidias kort implementeras med RTX) är en helt valbar finess, vilket så vitt jag vet varenda Gameworks effekt är.

Visst när du i framtiden klickar i "ultra" så kommer raytracing och säkert en rad andra saker som finns i Gameworks slås på i kommande AAA-titlar. Men det finurliga i PC-spel är att man alltid kan slå av precis de effekter man anser kostar för mycket i förhållande vad de ger i ökad visuell upplevelse (vilket brukar vara en del på "ultra"-nivå...).

Vill man motivera kostnaden för kortet så är det svårt för vissa. Men givet hur många här på SweC som verkar driva sin egen rederings-farm hemma (läst kommentarerna varje gång HEDT CPUerna testas...) så borde vi ju snarare se vågen rulla här på forumet i stället för det massiva gnäll som nu dominerat.

Om det är något Nvidias RT-core kommer göra relativt omgående är det att förpassa CPU-rendering till historien. Även ett RTX 2070 kommer få de snabbaste HEDT-modellerna att framstå som miniräknare när det kommer till rendering, i det läget är ju prislappen för RTX-kortet som hittat!

Skrivet av Xinpei:

Man kan ju börja med att se till att tekniken fungerar innan man släpper den just sayin..

Hur kommer du m.fl. fram till att FPS kommer vara extremt dålig så fort man använder den nya tekniken i Turing?

Självklart kommer det gå långsamt om man fläskar på allt för mycket, men det som explicit nämnes i presentationen är att SMs (som även fortsättningsvis kommer köra "vanliga" shaders), tensor-cores (som i alla fall initialt primärt kommer användas till "deep learning AA") samt rt-cores kan ju användas parallellt.

Så om du har en scen som ger 60 FPS, lägger man då på ljuseffekter så att rt-cores belastas <100 % så kommer man ju få exakt samma FPS då dessa inte är flaskhals. Faktum är att man borde få något högre FPS då SMs inte längre behöver göra saker som SSAO och andra sätt att approximera ljuseffekter.

Kikar man sedan på tensor-cores och specifikt "deep learning AA" (DLAA) så är det en teknik som har potential att öka FPS för det mesta då huvudpoängen med detta är att kunna rendera scenen (alt. bara vissa delar av scenen, t.ex. de i periferin och/eller de objekt med väldigt komplexa shaders associerade med sig) i lägre upplösning. Sedan använder man DLAA för att skala upp upplösningen.

Fick ändå känslan att DLAA nog inte riktigt är färdigutvecklat riktigt än på programvarusidan, men konceptuellt är DLAA en väldigt vettig och teknisk rimlig användning av maskininlärning och det är en teknik som borde förbättra effektiviteten både på SMs och RT-cores.

Det skrivet: kollar man historiskt har nästan alla grafikkortsmodeller som varit först med bandbrytande inte fått jättestort genomslag för den tekniken. Dels då de oftast varit lite för klena att dra nytta av tekniken, dels så har ju de existerande korten på marknaden saknat tekniken.

Det som ändå talar för både användandet av både tensor-cores och rt-cores relativt omgående är att de båda används i tekniker som till stor del kan lägga ovanpå existerande renderingsmotorer! Flaskhalsen här är nog mest att DX12/Vulkan nu krävs, men är inte det vad många längtat efter? Innan detta fanns egentligen ingen teknisk fördel med DX12/Vulkan över DX11 då båda hade exakt samma shader-kapacitet (fram till nu) och fördelen med längre CPU-overhead är meningslös på PC då CPU nästan aldrig är en flaskhals där, till skillnad mot konsoler där motsvarande teknik är ett krav för att kunna köra med CPU-kraft motsvarande en instegsmobil idag.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Känns som något man drar igång på en tom map för att visa polarna. Sen har man aldrig igång när man faktiskt spelar. Kanske for att
ingen någonsin vill spela på en dator med 30 fps.

Skickades från m.sweclockers.com

Visa signatur

Karl Pilkington, discussing dopplegangers - "How would I know which one I was?"

Permalänk
Medlem
Skrivet av Thias:

Var är AMD?

Skickades från m.sweclockers.com

AlwaysMoreDelays

Permalänk
Avstängd

Ni som klagar på priserna är väl troligtvis spekulanter på dessa kort: varsågod, detta är resultatet av alla er Nvidia fanboys som köpt kort till varje pris så länge det varit Nvidia och inte AMD.

Permalänk
Medlem

Vet inte riktigt varför men inte speciellt imponerad av BFV demot, kanske för att effekterna var så överdrivna. Vilket är förståeligt med tanke på att dom skulle visa RT. Starwars demot imponerade desto mer.

Är lite orolig att det kommer att komma massa spel nu som ser ut som skit för att alla måste använda ray tracing maximalt oavsett hur det skulle se ut i verkligheten.

Hur många blanka ytor har du runtomkring dig just nu?
Hur många blanka välpolerade ytor finns det i valfri krigszon/racing bana/medeltids by?

Rätt använt kommer vi nog få se jäkligt imponerande spel men det kommer att ta ett tag innan vi kommer dit.

Visa signatur

Du behöver inte vaccinera dina barn, bara dom du vill behålla.

Permalänk
Avstängd
Skrivet av Datanisse:

Ten gigarays!! Ten gigarays! It just worx!

Tycker det är löjligt att Nvidia kapat Apples slogan "it just works" för att undermedvetet locka Applekunder.

Nog för att Jensen Huang har dålig fantasi och humor men det där är ju bara löjligt.

Permalänk
Medlem
Skrivet av Donathan:

Ni som klagar på priserna är väl troligtvis spekulanter på dessa kort: varsågod, detta är resultatet av alla er Nvidia fanboys som köpt kort till varje pris så länge det varit Nvidia och inte AMD.

Kan inte ha med det att göra. Utvecklingskostnaderna är nog mycket högre hos nVidia än AMD, som alltid ger ut nått misslyckat. AMD's nästa generation av grafikkort kommer heller inte vara nått att hurra för. Inte nog med all tid AMD köpare får vänta.

Permalänk
Avstängd
Skrivet av nicoX:

Kan inte ha med det att göra. Utvecklingskostnaderna är nog mycket högre hos nVidia än AMD, som alltid ger ut nått misslyckat. AMD's nästa generation av grafikkort kommer heller inte vara nått att hurra för. Inte nog med all tid AMD köpare får vänta.

Ärligt talat så förstår jag inte varför folk ser AMDs kort som misslyckade.

Visst dom är inte bäst men är verkligen den som kommer tvåa i valfri gren i OS misslyckad? Är du misslyckad om du inte blir nästa Bill Gates?
Att tillverka ett kort som presterar 10-20% under 1080Ti är knappast misslyckat, det är otroligt bra.

Det finns ju mer än en aspekt i det hela, freesync exempelvis.

Permalänk
Medlem

Väntat med spänning på när ray-tracing skulle bli verklighet i 20 år nu, detta har ju varit lite av en "holy grail". Det mest intressanta för mig är hur mycket utveklingstiden för kommande spel kan förminskas i framtiden och samtidigt se bättre ut. Inget arbete med att sätta upp 20 olika ljuskällor för att få ett rum att se bra ut, bara att placera ut ljus där de fysiska ljuskällorna skulle finnas.
I många fall är ju de fysiska ljuskällorna endast solen, placera ut den och ljussättningen för hela spelet är klart.

Så "it just works" som de verkar ha som någon form av slogan verkar ju för utveklares del väldigt lovande.

Visa signatur

There are 10 types of people in the world: Those who understand binary, and those who don't...

Asus Maximus VIII Hero | i7-6700K | ASUS GeForce GTX1070 Strix 8GB | G.Skill F4-2133C15Q-32GRK |

Permalänk
Inaktiv
Skrivet av WarWolf.667:

Väntat med spänning på när ray-tracing skulle bli verklighet i 20 år nu, detta har ju varit lite av en "holy grail". Det mest intressanta för mig är hur mycket utveklingstiden för kommande spel kan förminskas i framtiden och samtidigt se bättre ut. Inget arbete med att sätta upp 20 olika ljuskällor för att få ett rum att se bra ut, bara att placera ut ljus där de fysiska ljuskällorna skulle finnas.
I många fall är ju de fysiska ljuskällorna endast solen, placera ut den och ljussättningen för hela spelet är klart.

Så "it just works" som de verkar ha som någon form av slogan verkar ju för utveklares del väldigt lovande.

Det fina med standarder är att det finns så mycket att välja på.
Det enda utvecklare nu behöver göra är att koda Nvida, AMD-ATI, Intels, Matrox lösning.
Och så slipper de bråka med den dritt som finns i directx..

Min poäng är att Nvida måste släppa lösningen annars bara mer jobb för utvecklare.

Permalänk
Medlem

@mikgus: Tror du har missat hela saken med raytraying. Det handlar inte om blanka ytor eller reflektioner, det handlar om ljussättning. I hela scenen. Ljussättningen i ett spel är ju en av de viktigaste sakerna, och med raytracing så kan du på ett enkelt sätt ljussätta hela scenen med korrekta reflektioner, refraktioner och allt annat som krävs. Spelar du t.ex ett utomhusspel så behöver du EN ljuskälla - solen - och så har du hela spelet ljussatt. Istället för att manuellt behöva förrendera allt och det ser ut som skit när skuggor blir för skarpa och nya objekt inte ens återspeglas rätt i spelet. Så jag tror detta kommer bli en riktig grafikhöjare i spel där man kommer gå från artificiellt ljussatta miljöer till mer naturliga sådana där allt ser så mer naturtroget och vackert ut.

Och till er som knorrar om priset: Ja, teknik är dyrt. Dollarn är hög, kronan är värdelös. Deal with it. Ingen som säger heller att ni måste ha det nyaste och vackraste, det är inte en rättighet. Antingen vill du ha en Skoda eller Toyota, eller vill du ha en Tesla eller Jaguar beroende på var ditt intresse och behov ligger. Vissa vill ha bilen bara för A > B, vissa tycker det är kul att köra och vill ha det som en upplevelse. Men det kanske är bättre att Nvidia slutar med ny teknik och istället bara kör på gammalt som de snabbar upp lite då och då. Dags att ta fram mitt Trident 8900C-kort för varför ska vi ha 3D öht? 2D FTW!

När spelen sedan blir vanligare och vanligare med RT (vilket jag tror går snabbt då det är enkelt att implementera, och de största 3D-motorerna har redan stöd för det) så kommer ni bara prata "gigarays" och inget annat när ni mäter prestanda.

Var glada för att vi gör tekniska framsteg, ni får vackrare spel, billigare hårdvara, snyggare filmer och så mycket annat som kommer i kölvattnet av ny teknik.

*går och packar upp min Voodoo2 för f_ck 1024x768 och texture compression, vsync och antialiasing*

Permalänk
Medlem
Skrivet av nicoX:

Kan inte ha med det att göra. Utvecklingskostnaderna är nog mycket högre hos nVidia än AMD, som alltid ger ut nått misslyckat. AMD's nästa generation av grafikkort kommer heller inte vara nått att hurra för. Inte nog med all tid AMD köpare får vänta.

Jasså hur kan du veta det redan? Vadå vänta? Bortsett från 4K@60 ultra prestanda är det inget man som AMD-köpare behöver vänta på.

Permalänk
Medlem

Blir det lättare för spelmotorskapare med raytracing jämfört med tidigare?

Skickades från m.sweclockers.com

Permalänk
Inaktiv
Skrivet av HenrikM:

Blir det lättare för spelmotorskapare med raytracing jämfört med tidigare?

Skickades från m.sweclockers.com

Nej tvärtom det blir ett rent extraarbete såvida det inte blir en standard:
#17518734

Permalänk
Medlem

Coolt, men inte värt priserna så här i början.

Visa signatur

Das Haus, det bästa inom House.

| Asrock X670 SL | Ryzen 7800X3D | 32GB 6000mhz CL30 | Radeon 6950XT Red Devil | Kingston KC3000 2tb M.2 | 20tb+ HDD | Dell UP3017 30" 2560x1600 |

Permalänk

Har AMD-fanboysen hittat hit nu och ska gnälla på Nvidia istället för att gnälla på Intel?

1. AMD ligger alltid efter i release
2. Alltid sämre prestanda
3. Alltid sämre drivrutiner
4. Alltid varmare
5. Aldrig ens prisvärda

Vill ni köpa sämre grejer så varsågoda, jag tänker inte lägga mina sura slantar på det.

Visa signatur

1::3700+ San Diego@3.0GHzghz[300x10], Abit KN8-Ultra, 1024mb, X850XT @ PE. 01: 27190. 05: 6220.
2::XP 2500+ @ 3200+, Asus A7N8X-X, GeForce FX 5700 Ultra@ 605/1100, 512mb ddr. 01: 13550

Permalänk
Medlem
Skrivet av anon159643:

Nej tvärtom det blir ett rent extraarbete såvida det inte blir en standard:
#17518734

Att göra en motor med bara raytracing blir väldigt mycket enklare.
Skall man stödja gamla tekniker så blir det bara mer jobb då man måste ha båda systemen.

Å andra sidan bör det vara relativt lätt att lägga på raytracing i befintliga motorer då man i stort sett borde kunna ignorera alla ljuskällor som är gjorda på det "gammla sättet" och endast använda ljuskällor som är "fysiskt korrekta" för ray-tracing.

I stort sett borde man kunna på ljuskälla ha ett boolenskt värde som är is_physical_lightsource = true/false
Och används motorn i ray-tracing läge så används bara ljuskällor som har is_physical_lightsource == true
Medans i legacy-mode så används alla ljuskällor.

Detta är ju väldigt förenklat och har inte sett ur API:et kommer att fungera osv.

Visa signatur

There are 10 types of people in the world: Those who understand binary, and those who don't...

Asus Maximus VIII Hero | i7-6700K | ASUS GeForce GTX1070 Strix 8GB | G.Skill F4-2133C15Q-32GRK |

Permalänk
Medlem

Är det något fel på mig (retorisk fråga, jag vet att svaret är "ja") eller tycker fler att presentationen "sög"? Massa skitsnack om (för mig) irrelevant information om ljus och skuggor. Jag som konsument behöver inte veta en massa tekniska detaljer. Det jag däremot vill veta är "hur många fps" kan man få i "ultra" i respektive upplösningar, 1080p, 1440p och 4k jämfört mot Gtx 1080ti? Är det värt att uppgradera?

Ok, Raytracing verkar ju "häftigt" men ärligt talat när jag lirar brukar jag stänga av alla extra skuggor och skit för att kunna mata skärmen med 140+ fps. Jag vill inte gå tillbaka till 30-60 fps gaming igen för att få lite "snyggare" skuggor och ljus.

Sen tycker jag att det var ganska kul när dem visade "rummet" när ljuset kom in genom ett fönster. "Med RT ON ser ni ... inte ett SKIT - men det är snyggt!" - med RT off ser du ev. en player som sitter och mysrunkar i ett hörn och väntar på att få pippa dig". Tror ni RT blir stort inom e-sport ?

Sen priset.... kom...igen...FÖR FAN! Dags för lite konkurrens, detta är löjligt.

Permalänk
Inaktiv

Är det bara jag som tycker att priset på minnen är värrer än höga priser på grafikkort. Minnen är ett måste till en dator, ett high-end grafikkort är ej ett måste.

Permalänk
Medlem
Skrivet av Edja78:

Är det något fel på mig (retorisk fråga, jag vet att svaret är "ja") eller tycker fler att presentationen "sög"? Massa skitsnack om (för mig) irrelevant information om ljus och skuggor. Jag som konsument behöver inte veta en massa tekniska detaljer. Det jag däremot vill veta är "hur många fps" kan man få i "ultra" i respektive upplösningar, 1080p, 1440p och 4k jämfört mot Gtx 1080ti? Är det värt att uppgradera?

Ok, Raytracing verkar ju "häftigt" men ärligt talat när jag lirar brukar jag stänga av alla extra skuggor och skit för att kunna mata skärmen med 140+ fps. Jag vill inte gå tillbaka till 30-60 fps gaming igen för att få lite "snyggare" skuggor och ljus.

Sen tycker jag att det var ganska kul när dem visade "rummet" när ljuset kom in genom ett fönster. "Med RT ON ser ni ... inte ett SKIT - men det är snyggt!" - med RT off ser du ev. en player som sitter och mysrunkar i ett hörn och väntar på att få pippa dig". Tror ni RT blir stort inom e-sport ?

Sen priset.... kom...igen...FÖR FAN! Dags för lite konkurrens, detta är löjligt.

Kan bara hålla med om att presentationen var ganska dålig på det stora hela, dessutom inte alls gjord för konsumenter utan mer utveklare som kan förstå all mumbo-jumbo
Tror inte vi på något sätt kan veta hur detta kommer att prestera och allt beror ju på grafikmotorn om den kommer stödja ray-traycing eller inte.
Känns spontant som att man kanske hoppar över första generationen tills spelmoterna börjar stödja den nya tekniken.

Visa signatur

There are 10 types of people in the world: Those who understand binary, and those who don't...

Asus Maximus VIII Hero | i7-6700K | ASUS GeForce GTX1070 Strix 8GB | G.Skill F4-2133C15Q-32GRK |