Nvidia visar ray tracing i Minecraft

Permalänk
Melding Plague

Nvidia visar ray tracing i Minecraft

Inom kort får Minecraft stöd för realistiskt ljus genom ray tracing, något Nvidia demonstrerar med Geforce RTX-familjen.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

På bilden tycker jag att det ser ut som att man bara dragit upp ljuset och satt på god rays

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

Om man spelar minecraft med ett bra RTX-kort så har man nog laddat ner modd för det här för ett år sedan tillsammans med UHD texturer. Men är ju trevligt att det blir en officiell funktion nu men en gäspning i nyhetsvärde enligt mig

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Medlem

Minns jag galet nu men skulle inte Nvidia även slå igång stöd för 1000-serien?

Permalänk
Medlem
Skrivet av ZalZeRoz:

Minns jag galet nu men skulle inte Nvidia även slå igång stöd för 1000-serien?

Det ska redan vara gjort. Nyheten är ett år ungefär
https://www.sweclockers.com/nyhet/27352-nvidia-slapper-drivru...

Citat:

Nu väljer Nvidia, i enlighet med sina uttalanden på årets GTC-konferens, att släppa en färsk drivrutin som aktiverar stöd för DirectX Raytracing ihop med utvalda grafikkort i Geforce GTX 1000-serien och arkitekturen Pascal. På listan syns samtliga modeller ned till Geforce GTX 1060 med 6 GB grafikminne – oavsett om det rör sig om stationära eller mobila kretsar.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk

@ClintBeastwood:
if(sun) {
increase brightness "200x.";

Visa signatur

citera för svar
Glassbilen spelar bara när det är helt slut på glass

Permalänk
Medlem

@ClintBeastwood:
det kanske ser ut så första jämförelsen, men sista bilden klart förbättring

Visa signatur

Moderkort: Aorus z390 elite CPU: INTEL i9 9900KS
SSD: 970 evo plus 1TB Intel 750 1.2TB, Samsung 850 PRO 1TB GPU: Titan X Pascal
Ljud: PC360Sennheiser+SB ZxR RAM: Corsair Vengeance lpx 2600mhz cl15 32GB
SKÄRM1: Asus Rog Swift PG279Q 165hz 27" 2560x1440 CHASSI: Define R5
SKÄRM2: ASUS PB278QR 27" 2560x1440 KYLNING: NH-D15 NÄTDEL: Corsair AX860W

Permalänk
Medlem
Skrivet av ZalZeRoz:

Minns jag galet nu men skulle inte Nvidia även slå igång stöd för 1000-serien?

Jodå. Quake RTX funkar på mitt Titan XP men det är segt som skit.

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Medlem

Raytracing, nu med N64 texture pack!

(jag vet, det finns lösningar på det)

Permalänk
Inaktiv

Bara det kommer lite vettiga grafikkort med acceptabel prestanda blir det att testa.

Permalänk
Medlem
Skrivet av talonmas:

Om man spelar minecraft med ett bra RTX-kort så har man nog laddat ner modd för det här för ett år sedan tillsammans med UHD texturer. Men är ju trevligt att det blir en officiell funktion nu men en gäspning i nyhetsvärde enligt mig

Fast detta är till Bedrock. Om man som i detta hushåll t.ex., spelar Win 10 tillsammans med Android-enheter, fungerar inte Java-versionen.

Appro på den eviga diskussionen Java/Bedrock så kollade jag med kidsen om någon av deras kompisar körde Java-versionen och det var inte en enda (av ca 20 som spelar). Det är nog främst "äldre" som kör Java.

/hulle.

Visa signatur

A600, 2 MB Chipram, 85 MB HD, Extra diskettstation, Joysticks: Tac-2, The Bug och Wico Red Ball.
Zotamedu:"Kompressorkylning är nog det mest miljöfarliga du kan göra med en dator om du inte tänker börja elda brunkol i den."

Permalänk
Medlem

Varför förbättrar inte MS grafiken generellt för minecraft? Kul med raytracing men känns som att man polerar en bajskorv.

Jag menar inte att det ska bli en extrem förändring men lite små förbättringar här och där så att spelet får ett ansiktupplyft.

Permalänk
Medlem

Är det inte mer eller mindre samma demo som MS visade på Series X?

Permalänk
Hedersmedlem
Skrivet av Hulle:

Fast detta är till Bedrock. Om man som i detta hushåll t.ex., spelar Win 10 tillsammans med Android-enheter, fungerar inte Java-versionen.

Appro på den eviga diskussionen Java/Bedrock så kollade jag med kidsen om någon av deras kompisar körde Java-versionen och det var inte en enda (av ca 20 som spelar). Det är nog främst "äldre" som kör Java.

/hulle.

Och de som vill spela tillsammans med någon som har en Apple-dator. Bedrock funkar väl inte där riktigt?

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem

Min stora fråga är hur detta påverkar ljusnivån rent spelmekaniskt. Det är ju en rätt stor del av minecraft.

Permalänk
Medlem
Skrivet av Hulle:

Appro på den eviga diskussionen Java/Bedrock så kollade jag med kidsen om någon av deras kompisar körde Java-versionen och det var inte en enda (av ca 20 som spelar). Det är nog främst "äldre" som kör Java.

/hulle.

Vi "äldre" kör nog Java-versionen för att den inte är så gimpad som Windows-versionen. Med java-versionen kan vi modda och tweaka medans Windows-versionen är som den är utan möjligheter till modifikationer. Finns ju ett oerhört stort mod-community för de som kör just java-versionen. Ungarna kör nog mest Windows- eller iPad/Android-versionen för att det är snabb gameplay och de inte är intresserade av att sätta upp egna servrar och modda.

Hade Microsoft brytt sig om mod-marknaden och anpassat Windows-versionen så att man kan modda den som med Java-versionen, ja då hade det varit en annan sak... men det kommer aldrig hända.

Permalänk
Medlem
Skrivet av serverfel:

Jodå. Quake RTX funkar på mitt Titan XP men det är segt som skit.

Ah ok, så då kan jag räkna med att det är minst lika illa med mitt 1080GTX

Permalänk
Medlem
Skrivet av Söderbäck:

Och de som vill spela tillsammans med någon som har en Apple-dator. Bedrock funkar väl inte där riktigt?

Ingen aning. Spelar någon med apple-datorer?

Det går däremot utmärkt att spela Win 10, Xbox, Android och iOS tillsammans.

/hulle.

Visa signatur

A600, 2 MB Chipram, 85 MB HD, Extra diskettstation, Joysticks: Tac-2, The Bug och Wico Red Ball.
Zotamedu:"Kompressorkylning är nog det mest miljöfarliga du kan göra med en dator om du inte tänker börja elda brunkol i den."

Permalänk
Medlem

Kul, men är det inte lite som att sminka en gris?

Visa signatur

🛜🫀: HP ProDesk 400 G3, i5 6500, 8GB DDR4, Intel X520-DA2
🐳🐧: AMD R5 3600 | Google Coral.ai | ASRock X570D4U-2L2T | Silverstone CS381 | 80GB DDR4 | 8 HDD BTRFS RAID1
⌨️🎮: R9 3900X | RTX 2080 LC | Acer XF270HUA | 96GB @ 3200 | MSI X570 MPG G EDGE WIFI | CORSAIR C70
🎞🎶: LG OLED55C8 | Epson TW3200 | Onkyo TX-NR646 | Infinity Reference 61/51 mk2 | Shield TV V2 | minhembio.com

Permalänk
Hedersmedlem
Skrivet av Hulle:

Ingen aning. Spelar någon med apple-datorer?

Det går däremot utmärkt att spela Win 10, Xbox, Android och iOS tillsammans.

/hulle.

Yas. När jag spelade det där sist (många år sedan visserligen) med vänner så satt hälften med äppleburkar ;).

Vi har funderat på att återvända nån gång och då får man ta det här i beaktning. För min del iaf. Ipaden är inge vidare alternativ här.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Datavetare
Skrivet av DevilsDad:

Min stora fråga är hur detta påverkar ljusnivån rent spelmekaniskt. Det är ju en rätt stor del av minecraft.

Om man zoomar ut lite och funderar vilket värde detta har för Nvidia så är eventuell ändring av spelmekanik totalt irrelevant för dem.

Minecraft är idealiskt för det man primärt använt det till, vilket är FoU kring hur man effektivast kan använda ray-tracing i spel.

Idealiskt då det fortfarande är en titel som många spelar, den är under aktiv utveckling, det gör det lite roligare för de som jobbar med tekniken då det finns en publik.

Men det är också idealiskt p.g.a. av sin grafik. Både då den håller ned komplexiteten i geometri, det gör att man kan använda sig av mer avancerade tekniker för ray-tracing. Också då enkelheten gör att man långt bättre ser exakt vad ray-tracing tillför, det drunknar inte inte femtielva "fusktekniker" som försöker emulera motsvarande effekter.

RTX-korten har snart varit ute i två år. Tittar man på vad som krävs för att faktiskt utnyttja ray-tracing på ett rimligt sätt i spel kopplat mot ledtider för utveckling hos dagens stortiltar borde nog ingen ha förvänta sig speciellt mycket de första 3-5 åren. Det går tyvärr inte fortare att införa något så här omvälvande, just omvälvande är vad det kommer vara när ketchupeffekten infinner sig!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Hassel fd Jompenleet:

@ClintBeastwood:
if(sun) {
increase brightness "200x.";

Good one

Permalänk
Medlem

För de som kört java så går det att få software raytracing sedan 2019. behöver inte ens rtx kort då det kör software. inte samma som det nvidia hållt på med dock.

googla SEUS PTGI optifine

Permalänk
Medlem

Gäller detta för windows versionen av spelet eller java versionen eller båda?
För alla roliga moddar finns väl endast till java och inte win10 versionen?

Visa signatur

Min dator: Silent Base 600 | 1700X @ 3.9Ghz | MSI Gaming X 1080TI | RM750X | 512Gb M2 | 16Gb 3200mhz Ram | S34E790C @ 3440x1440
Tjejens dator: Define r4 | i5 3570k @ 4.2ghz | GTX Titan | 750w Supernova | 240gb SSD | 32gb ram
Citera/Tagga för svar!

Permalänk
Medlem
Skrivet av ZalZeRoz:

Ah ok, så då kan jag räkna med att det är minst lika illa med mitt 1080GTX

Ja. Inte värt det.

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Medlem

Svårt för Nvidia att säga DXR istället för RTX, adaptive sync (i någon av dess olika slag) istället för GSync (även på skärmar utan deras modul) osv. Att iaf kalla standerderna för sina rätta namn är ju att föredra kan man tycka. Förstår ju att Nvidia gör det för att koppla egna namn och sitt varumärke till saker. Men det förbryllar ju bara folk som inte är insatta i det hela och faktiskt vet vad som finns bakom ytan.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem

@Hulle: Nackdelen med Bedrock edition är mods, det finns Add-ons men som är betydligt mer begränsande än vad Java versionen är. Jag har läst lite överallt att man arbetar på att förbättra moddvänligheten för Bedrock versionen vilket jag innerligt hoppas då främsta bekymret med Java versionen är att på server sidan är det enkel trådat mestadels vilket gör det horribelt att hosta på en riktigt server om man inte har ett monster till Xeon CPU med högra frekvenser. Jag har inte kunnat hitta information om att Mojang ens funderar på att bygga om server delen för Java versionen av spelet till att köra med flertrådat. Men kanske kommer?

Permalänk
Medlem

Men kom inte nyheten om RT i Minecraft förra året?

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk

Att "släppa" saker innan de är färdiga är smart. Då får man en extra nyhet när det är 1.0 också. Och fler för varje patch därefter. Minecraft självt är extra smart då det varit i utveckling i 10 år, släppts för 9 år sen och fortfarande inte är färdigt.

Visa signatur

[4790k@4.6]+[RTX 3070 OC]+[16GB]+[4x SSD]+[NZXT+700W Gold]+[Win7]+[2x Samsung SA27950D <3]+[Topre TKL]+[G403 Hero wired]+[HyperX Cloud Alpha S]+[KingKong 2 Pro]. ZBook 17 G5, Quadro P3200, Win11.

Permalänk
Inaktiv
Skrivet av HolyFather:

Att "släppa" saker innan de är färdiga är smart. Då får man en extra nyhet när det är 1.0 också. Och fler för varje patch därefter. Minecraft självt är extra smart då det varit i utveckling i 10 år, släppts för 9 år sen och fortfarande inte är färdigt.

Typ så!
Sedan klassikern med PR utskick för PR utskick om teaser till en trailer och liknande.