Nvidia demonstrerar ljuseffekter med beräkningar i molnet

Permalänk
Melding Plague

Nvidia demonstrerar ljuseffekter med beräkningar i molnet

I samarbete med forskare vid Williams College demonstrerar Nvidia tekniken Cloudlight, som öppnar upp för molnbaserade beräkningar av ljuseffekter i spel.

Läs artikeln

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Avstängd

Högre latens? jag nöjer mig med min höga latens

Permalänk
Medlem

Vågar man ens tänka på latensen om man sitter med detta i Australien

Visa signatur

Louqe Ghost S1 + L TopHat | ASRock Phantom Gaming ITX | Intel Core i9-9900K | Corsair Vengeance LPX 32GB | Gigabyte GeForce RTX 2080 Ti 11GB | Corsair SF750 Platinum | Samsung 970 EVO Plus 500GB | Intel 660P 2TB | Custom Vattenkylning CPU/GPU | Windows 11 Pro x64

Permalänk

Hur blir det om man bor en bit från servern då? För att det här ska bli någorlunda bra så måste antingen Nvidia bekosta massor av servrar eller försöka övertyga alla som använder tjänsten att flytta nära servrarna.

Videon fungerar inte för mig så jag ser inte riktigt exakt vad som renderas av 'molnet'. Om det är bara är ljuseffekter som får en viss fördröjning så lär det inte vara så förödande.

Visa signatur

Livet är som ett avloppsrör, långt och fullt med skit.

Citera om du vill ha svar!

Permalänk
Medlem

Om det håller sig till 100ms i latens så kan det vara intressant till flera typer av spel. Men helt värdelöst till FPS och RTS och liknande.

Visa signatur

Har ett moderkort men vart fan köper man ett pappakort!?
Dator som moddas för fullt: SilverStone Raven RV02 White| i7 2600k @ 4,6GHz | ASUS P8P67 WS Revolution| Tri SLI Asus GTX580 DCII| 16Gb Corsair Vengence 1600MHz | Corsair AX 1200i| 2st OCZ Vertex 3 MI 120GB | Skärmar: 3x Dell U2311

Permalänk
Medlem

jo, känns lite slött i dagsläget men kan nog bli bättre framöver med utveckling. Borde funka bra i strategispel som inte är i realtid typ civ etc. konsolspel är ju inte några ms till inget att oroa sig för då tvn ofta har betydligt högre redan.

Skickades från m.sweclockers.com

Visa signatur

Storburk: Ryzen 7 3700X, MSI B450M Mortar, FD Define Mini, CM M2 Silent 720W, 32 GB, RX 5700 XT 8GB, NVME SSD + HDD - HTPC: Ryzen 5 2400G, 16 GB, NVME SSD, BeQuiet 550W

Permalänk
Medlem

Nu är det ju specifikt ljus som står i artikeln men borde inte detta båda gott inför sekundära system och funktioner (mer omfattande levande värld, AI osv) så kan den lokala beräkningen fokusera mer på att presentera det som händer i realtid utan latensproblem?

Permalänk
Medlem
Skrivet av Tobi the Dobi:

Om det håller sig till 100ms i latens så kan det vara intressant till flera typer av spel. Men helt värdelöst till FPS och RTS och liknande.

Fast i det här fallet handlar det endast om ljuseffekter och inte kontroller av gubben i spelet. Jag ser nästan ingen skillnad på 0ms och 500ms i videon med den röda bollen, så det skulle visst kunna fungera även i FPS.

Visa signatur

Intel 2500k || Asus P8P67 Pro || 2x4GB Corsair Vengeance || MSI GTX680 || Corsair AX650W || Win 7 64-bit

Permalänk

Hur kommer de fram till att t.ex. 100ms är 3 bildrutor? Räknar jag fel, för borde det inte nästan vara det dubbla?

Visa signatur

][- perfect -][

Permalänk
Avstängd

Jobbigt som fan med det där flimmret.

Visa signatur

| i5 2500K@4.2GHz | 8GB Gskill 1600MHz | Gigabyte Z68X-UD3H B3 | GTX 680 2GB w/ Twin Turbo II |
Corsair TX650W | BENQ GW2750HM | 5TB | 60GB Nova 2 SSD | Samsung 830 128GB OS SSD
Ze Best Moosic You'll Ever Hear

Permalänk
Inaktiv

Tack för nyheten! Nvidia: det här med "beräkningar i molnet" är fullständigt ointressant och meningslöst.

Permalänk

Gäller detta om man sitter på fiber med <10 ms i ping? Vad händer då om man har 3G-uppkoppling och >200 MS i ping?

Skickades från m.sweclockers.com

Visa signatur

Phanteks P600S Grå - Ryzen 9 3900X - Phanteks PH-TC14PE Black - ASUS ROG Strix X570-F Gaming - G.Skill Trident Z Neo 32GB (2x16GB) 3600MHz CL16 - HD7970 - Seasonic Focus+ 650W Platinum

Permalänk
Medlem

Kommer funka hur bra som helst när dem väl löser problemet med hastighets begränsningen på 300000km/s...

Permalänk
Medlem

Vet folk inte om att Xbox One t.ex. ska stödja sånt här? Hur nice som helst i singleplayer spel, vad ska du då med din ping till? Lika bra o få mycket bättre ljus på banorna?

http://attackofthefanboy.com/news/xbox-cloud-gimmick-nvidia-p...

Visa signatur

Projektlogg: Vector Qlimax

X APEX, 8700K @ 5200MHz, Trident Z 16GB @ 4133MHz CL16, RTX 2080 Ti, 970 M.2 SSD, RM1000x, EK A240

Permalänk
Medlem
Skrivet av Paradoxnode:

Hur kommer de fram till att t.ex. 100ms är 3 bildrutor? Räknar jag fel, för borde det inte nästan vara det dubbla?

De räknar med 30 FPS, vilket är vad konsollskaran är van vid.

Visa signatur

< i5 2500K @ 4.2GHz | 16 GB A-Data XPG + Corsair XMS3 1600MHz | ASUS GTX 670 DCU2 | Qnix QX2710 2560x1440 @ 96Hz | ASUS Xonar D2 | Samsung 830 128 GB | Crucial M4 240 GB | Samsung Spinpoint F3 1 TB | WD Green 2GB | Fractal Design Define R3 | Be Quiet! Straight Power 580W >

Permalänk
Medlem

Cloudcomputing är naturligtvis helt genialiskt när det gäller sådant som att beräkna komplexa vädersystem eller rymdsonders färdbana genom solsystemet. Men så länge som Nvidia inte planerar att uppfinna ett nytt internet i samband med den här tekniken, så känns det ganska värdelöst att applicera det på datorspel.

Permalänk
Entusiast

Är väl nice för lite mindre "krävande" spelare på mobila enheter som kan behöva en hjälp på traven med grafiken men jag undviker hellre detta och låter min dator rendera ljuseffekterna fram tills att tekniken har utvecklats för gratis microstuttering/input lag har jag ingen lust med...

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Medlem

Ser fint ut i videon kanske.. men med så hög latens så kan det kännas jävligt mysko för spelaren när man rör sig runt i omgivningen..

Visa signatur

CPU: Ryzen 7 3700X MB: X570 Aorus Ultra Mem: Corsair Vengeance RGB Pro 2x16GB DDR4 @ 3200 MHz CL16 GPU: Radeon RX Vega 56 SSD: Corsair Force MP510 960GB Case: FD Meshify C PSU: Corsair RM 750W Display: Acer 35" Predator XZ350CU OS: Win10 Pro

Permalänk
Medlem

Som jag förstår det från videon så är det bara llljuset som har latens. Detta skulle ju vara helt ok även i FPS om det bara ligger under 200ms. Detta ser fan lovande ut.

Skrivet av ParasiteX:

Ser fint ut i videon kanske.. men med så hög latens så kan det kännas jävligt mysko för spelaren när man rör sig runt i omgivningen..

Du menar att ljuset rör sig 200ms efter ficklampan? Jag skulle tro att spelaren inte märker av det om han inte styr ljuset själv.

Visa signatur

Moderkort: Asus P8P67 PRO REV B3 | CPU: Intel Core i5 2500K | GPU: GTX 980 DirectCU II 4GB |
PSU: 850W Gold

Permalänk
Medlem

Bara jag som tycker han i videon pratar väldigt tyst?
Hörde knappt vad han sa, fast jag hade högsta volym.

Visa signatur

Desktop: AMD Ryzen 7 3700X / 48GB RAM / RX 6600 XT / 2TB SSD / Arch Linux
Server: Intel(R) i5-7400T / 32GB RAM / 21TB HDD / Proxmox

Permalänk

Applicera detta på fysikberäkningar så har vi något

Visst var det snyggt men ljus känns som ett ineffektivt sätt att förbättra spelen på.

Kanske kan man köra hållfastighetsberäkningar på byggnader i molnet, i realtid. Latensen spelar mindre roll och man kan få vansinnigt snygga förstörbara miljöer.

Visa signatur

För övrigt anser jag att Copyswede bör förstöras.

Permalänk
Medlem
Skrivet av Tjodd:

Nu är det ju specifikt ljus som står i artikeln men borde inte detta båda gott inför sekundära system och funktioner (mer omfattande levande värld, AI osv) så kan den lokala beräkningen fokusera mer på att presentera det som händer i realtid utan latensproblem?

Detta, varför simulera ljus som är så viktigt att det sker direkt, när man istället kan simulera AI etc.?

Permalänk
Medlem

Då är ju frågan vad som händer först: molnlösningarna är tillräckligt mogna för att faktiskt användas till rendering eller AI-beräkning eller SoC:er i mobila enheter blir tillräckligt kraftfulla att hantera det på egen hand.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Entusiast
Skrivet av HagSon:

Detta, varför simulera ljus som är så viktigt att det sker direkt, när man istället kan simulera AI etc.?

Fast allt ljus behöver inte ske direkt egentligen. Lägger du bakgrundsljus som spelaren inte kontrollerar så är det skit samma om det laggar en sekund.

Det stora problemet är nog ekonomiskt. Vem ska betala för all hårdvara som krävs för att driva grafikservrarna? Vad händer när de lägger ner servrarna till just ditt favoritspel?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Skitbra att videon inte fungerar så man inte kan titta på den.

Visa signatur

AMD Ryzen 5 5600 | EVGA GeForce GTX 1070 8GB ACX 3.0 FTW | Fractal Design North Black TG | MSI MPG B550 Gaming Plus | Kingston Fury 32GB DDR4 3200MHz CL16 Beast | WD Black SN850X 1TB Gen 4 With Heatsink | EVGA SuperNOVA 750 G2 750W | Noctua NH-D15 | Windows 11 Pro

Permalänk
Inaktiv

Fördelen med dåliga GPUs på mobiler och liknande är att det tvingar utvecklare att försöka göra bra spel i stället för att sälja ögongodis.

Permalänk
Inaktiv

Kommer väl sen, "Only available in the US". :/

Skickades från m.sweclockers.com

Permalänk
Inaktiv
Skrivet av Zotamedu:

Fast allt ljus behöver inte ske direkt egentligen. Lägger du bakgrundsljus som spelaren inte kontrollerar så är det skit samma om det laggar en sekund och spara en massa resurser.

.......

Om bakgrundsbelysningen redan är statisk så är det ju otroligt onödigt att beräkna det via molnet. Man kan ju hårdkoda det. Om molnet lägger på 100ms så är det oanvändbart för uträkningar.

Det enda bra med molnet är att man har en extra backup för sinna sparningar. Utvecklare hypar det bara för att få ett online drm. Att spelet behöver konstant uppkoppling så som nya Sim City. Det är för att tjäna mera pengar.

Det enda molnet är bra på är att spara utrymme för spelaren. Man kan ladda ner hela nivåer om dem är små nog. (flash spel). Molnet är dumt idag eftersom utrymme är så pass billigt. Bluray skivor är så stora att man får plats med mer än vad som används. Det finns gott om utrymme för att hårdkoda.

Videon funkar inte för mig i vlc.

Permalänk

detta kommer bli interesant om man kan köra detta lokalt i hemmet sen. men just nu... nope

Visa signatur

CPU: Intel Core i7 4770k @ 4.2GHz w/ Noctua NH-U14S (NF-A15x2 @900RPM) | GPU: RTX 2070 | MB: Asus Z87-DELUXE | RAM: 16GB Corsair Vengance 1600MHz | Ljudkort: Asus Xonar Essence STX | PSU: Corsair AX 760W | Chassi: Fractal Design Define XL R2 | OS-disk: Samsung 850 pro 256GB | Media-disk: Samsung 850 pro 1TB | Lurar: Sennheiser HD 660S & Sennheiser IE 80 | Mikrofon: Samson C01U

Permalänk
Medlem

Ingen idé att göra så att man får beräkningskraft från molnet som ska
hjälpa med saker som detta. Det bästa man kan göra är att låta servrarna
hantera stora miljöer i en del spel. Det finns ju spel med enorma världar som
Far Cry 3, GTA, MMOs osv.