Användare installerar Crysis 3 i grafikminnet på Geforce RTX 3090

Permalänk
Melding Plague

Användare installerar Crysis 3 i grafikminnet på Geforce RTX 3090

Frågan "Can it run Crysis" får svaret ja när en användare lyckas installera Crysis 3 i grafikminnet på ett Geforce RTX 3090.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

What in tarnation is going on?

Hade ingen aning om att man kunde göra en ram drive av grafikkorts minne. Hur ställer sig hastigheten jämfört med ramminne/grafikkorts minne?

Visa signatur

Ryzen 5800x @ 32gb 3200mhz @ 7tb ssd @ 3060ti Fractal r5 @ Arch
i5 4670k @ 24gb 1600mhz @ Fractal r3 @ 12tb ZFS @ Truenas Scale
Thinkpad T450 @ i5 5300u @ 16gb @ 512gb ssd @ 24+48wh batteri @ Debian

Permalänk
Medlem

Jag är ju jäkligt nyfiken på vad read/write är på vramdisken.

Visa signatur

PC - GB Z390-Ultra | 9900K 5GHz | 32GB | RTX2080ti | NVME ~5TB
SRV (unRaid) - Asus Z370-H | 8700K 4.30GHz | 64GB | LSI9211 | 60TB HDD + 4TB NVME

Permalänk
Musikälskare

What! Detta är ju sjukt intressant?! Man borde göra det på alla tungdrivna gfx spel eller missar jag något

Visa signatur

❀ Monitor: ASUS Swift 27" @ 1440p/165Hz ❀ CPU: Ryzen 7700X ❀ Cooling: Corsair H170i ELITE 420mm ❀ GPU: MSI 3080 Ti SUPRIM X ❀ Memory: Corsair 32GB DDR5 Vengeance ❀ Motherboard: ASUS Crosshair X670E Hero ❀ M.2: Samsung 980 Pro ❀ PSU: Corsair HX1200 ❀ Chassi: Corsair 7000X ❀ Time Spy: 19 340

📷 Mina fotografier
🎧 Vad lyssnar du på just nu?

Permalänk
Medlem

Lär ju behöva gå via cpu ändå så kanske inte snabbare än vanlig ram drive.

Permalänk
Medlem
Skrivet av cracko:

Lär ju behöva gå via cpu ändå så kanske inte snabbare än vanlig ram drive.

Stämde bra det. Var vad skaparen av programmet nämnde med.

https://github.com/prsyahmi/GpuRamDrive

Visa signatur

AMD Ryzen 5600X, 4x8GB@3600MHz Crucial DDR4,MSI MAG X570 TOMAHAWK-WIFI & Asus RTX 3070 8GB

Permalänk

Året är 2077 och du kan nu installera Crysis 5 på din processors L1 cache.

Visa signatur
Permalänk
Medlem
Skrivet av flashen:

What! Detta är ju sjukt intressant?! Man borde göra det på alla tungdrivna gfx spel eller missar jag något

spel idag är inte så små att de får plats.

Visa signatur

"Det här systemet fungerar urkasst." - operatör.
"Hur ska det fungera då?" - jag
"Gör så att det fungerar som jag vill." - operatör.
/facepalm

Permalänk
Avstängd

Har inte vissa Firepro/Quadro-kort NAND-minne på själva grafikkortet? Jag antar att det kommer komma till spelkort också så småningom.

Permalänk
Skrivet av Meathim:

Har inte vissa Firepro/Quadro-kort NAND-minne på själva grafikkortet? Jag antar att det kommer komma till spelkort också så småningom.

https://www.amd.com/en/products/professional-graphics/radeon-pro-ssg

Visa signatur
Permalänk
Medlem

Borde detta inte vara det enklaste sättet att testa hur mycket VRAM man egentligen behöver?
Funderat på detta varför ingen testare helt enkelt reserverar t.ex. 2 GB minne på ett 3080 med 10 GB så att 8 GB är rent tekniskt tillgängligt för applikationer och benchmarkar. Sedan ökar man reservationen till 3 GB och så vidare. Tills man får en prestanda förlust för att tillgängligt minne är mindre än vad som behövs. För att helt utreda hur mycket som faktiskt används VS hur mycket som bara är allokerat för att det finns.
Detta program verkar gå att använda i detta syfte.

Visa signatur

[Asus P5B Dlx 430Mhz FSB] :: [Core 2 Duo E6400 2130@3440Mhz / Big Typhoon] :: [G-Skill PC6400 HZ DDR2 2GB 4-4-4-12] :: [X1900XT 680/800] :: 30" Dell 3007WFP

Permalänk
Medlem

Och här satt vissa av oss och kaxigt sade att 24GB för spel var onödigt. Tji fick vi, man saknar s.k. "vision" ibland.

Sorry alla med 3080 :/

Visa signatur

i7-2700K 5GHz | 32GB DDR3-1600 | ASUS Maximus V Gene | GTX 980 2-way SLI

Permalänk
Medlem

Att ett spel är installerat på detta är kul men ändå ointressant. Det är mer intressant vad annat går att göra med GPU RAM Drive och ger det prestandaökning?

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

Jaha får väl vänta på ett GRX 3080 med 1TB VRAM.

Visa signatur

Case: Fractal Design Torrent Solid Black MOBO: ASUS ROG STRIX X670E-A GAMING WIFI CPU: AMD Ryxen 7 7800X3D CPU cooler: Noctua NH-D15 RAM: G.Skill Trident Z5 Neo DDR5 6000MHz CL30 32GB GPU: MSI RTX 3080 GAMING Z TRIO 12G PSU: ROG Strix 1000W Gold Aura Edition M2: Kingston Fury Renegade 2TB Fans: 4x Noctua NF-A12x25
Monitor: ASUS ROG Swift PG27AQDM 27" 240Hz 1440p OLED QHD Mouse: Razer DeathAdder v3 Pro Wireless
Mousepad:
InfinityMice Speed V2 Keyboard: Wooting Two HE Headset: Audeze Maxwell Mic: Blue Yeti X

Permalänk
Medlem

Personen har alltså dedikerat 15GB av GPUs VRAM som RAM. Så ca 9GB kvar som spelet kan använda. Tråkigt bara att texturerna måste kopieras och göra en round trip, dvs läsas in av spelmotorn och laddas in VRAM igen för att spelet ska kunna använda dem. Texturerna som används av spelet finns alltså dubbellagrat (i olika format).

Dock borde datorns RAM avlastas men å andra sidan är väl konventionellt RAM snabbare att accessa för CPU.

Visa signatur

Windows 11 Pro | Intel i7 8700 | ASUS Prime Z370-P | Corsair 16GB 3000MHz | ASUS GTX 1080 | Fractal Design Define S | Corsair RM750x | Hyper 212 EVO

Permalänk
Medlem

Förutsatt att det gick att rensa bort på någon nanosekund så hade det varit coolt om Steam eller liknande program började duplicera ens mest spelade spel till grafikkortets minne när datorn står i idle om vi i framtiden kunde utnyttja minnets prestanda på det sättet. Så om man startade det vanligaste spelet så kunde det ladda från grafikminnet och om man startade något annat så kunde man snabbt bara radera den temporära lagringen.

Givetvis inget som ens Valve hade kunnat knåpa ihop idag, men det hade varit fint om man kunde starta ett fullt spel på <5 sek. Därmed kanske värt för Microsoft att tänka på inför de nya lagringsfunktionerna som de utvecklar?

Visa signatur

i5-7600k . GTX 1080 . 16 GB

Permalänk
Medlem
Skrivet av IKEA Billy Bokhylla:

Året är 2077 och du kan nu installera Crysis 5 på din processors L1 cache.

2142 så kan vi installera Crysis 43 i glasögonen.

Permalänk
Medlem

Haha galenskap men ack så roligt!

Visa signatur

Desktop: MSI MPG X570 GAMING PLUS, AMD Ryzen 9 5950X, Be Quiet Dark Rock Pro 4, 32GB G.Skill Trident Z RGB 3200,
ASUS ROG STRIX GeForce GTX 1080 8GB GAMING, Samsung 970 EVO Plus 500GB
Notebook: Macbook Pro 14" M1 Pro

Permalänk
Medlem
Skrivet av sleepyoh:

Hur ställer sig hastigheten jämfört med ramminne/grafikkorts minne?

Troligen sämre än RAM, då data flödet blir:
GPU VRAM -> CPU -> RAM/CPU CACHE -> CPU -> GPU
istället för RAMDISK:
RAM -> CPU -> GPU

Skrivet av flashen:

What! Detta är ju sjukt intressant?! Man borde göra det på alla tungdrivna gfx spel eller missar jag något

Det blir extremt dyrt och prestandan blir inte heller så bra. För GPU data så laddar redan de flesta program in så mycket de kan med en enorm cache. Så om man börjar fylla det med saker som inte är för GPU'n ens så "slösar" man GPU VRAM på det istället för mer saker som faktiskt är för GPU'n.

Så för alla scenarion är det sämre än en vanlig RAM disk, då det presterar sämre och är dyrare per GB. RAM disk i sig är någonting jag är lite skeptisk till. Det finns användningsområden, men för det mesta så är enligt mig vanlig OS filcache trevligare. Det ger också RAM hastighet till filläsningar men dynamiskt skalar, populeras och bearbetas. Alla vanliga OS har det redan föraktiverat, allt som behövs är att man har extra ledigt RAM. (Vilket behövs för RAM DISK också.) Den stora nackdelen är att den populerar först cachen vid första inläsning, någonting man kan explicit göra vid boot med RAM Disk. Men så fort det är inläst så går det riktigt snabbt.

Vill man ha snabbare datainläsning så är det viktiga att gå direkt från SSD -> GPU utan att involvera RAM, vilket är vad DirectStorage handlar om. Då har man bara GPU relaterad data i VRAM och den kan fylla det hur mycket den vill. Som skaparen av GpuRamDrive säger, detta är bara en cool PoC och inte en seriös lösning.

Små rättningar
Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem

Varför inte en M.2 slot för att installera valfri NVME på baksidan av grafikkortet?

Borde vara en god tanke.

Permalänk
Medlem

Uppgraderingbart grafikminne hade man redan på 90talet grafikkort.

Visa signatur

r_wateralpha 0.3

Permalänk
Medlem
Skrivet av Nighthog:

Varför inte en M.2 slot för att installera valfri NVME på baksidan av grafikkortet?

Borde vara en god tanke.

Kanske för att det finns på proffskorten.

Edit:
Kanske inte var M.2 iofs =(
https://www.amd.com/en/products/professional-graphics/radeon-...

OFF Topic: Varför inte installera Grafikkorte på en M.2 slot i stället. Det är PCIE 3.0 4x.

https://www.aliexpress.com/item/33047523917.html?spm=2114.sea...

Finns nog billigare leksaker än så. hehe.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem

Jag kommer ihåg att jag la wc2 i en ramdrive en gång i tiden för att få snabbare laddtider. Då började jag inse hur en dator funka och att man alltid har en bottleneck, man vet bara inte om den.
DirectStorage/RTX IO kommer kunna lösa lite av IO, men snart så hittar vi nått nytt som är för långsamt.

Skrivet av svolter:

Borde detta inte vara det enklaste sättet att testa hur mycket VRAM man egentligen behöver?
Funderat på detta varför ingen testare helt enkelt reserverar t.ex. 2 GB minne på ett 3080 med 10 GB så att 8 GB är rent tekniskt tillgängligt för applikationer och benchmarkar. Sedan ökar man reservationen till 3 GB och så vidare. Tills man får en prestanda förlust för att tillgängligt minne är mindre än vad som behövs. För att helt utreda hur mycket som faktiskt används VS hur mycket som bara är allokerat för att det finns.
Detta program verkar gå att använda i detta syfte.

Intressant ide @Nyhet nått ni har tid att kolla på?

Edit: Man får nog stänga av delat grafikminne också så att vramdisken inte flyttas till delat minne.

Permalänk
Medlem

Kul om grafikkorten kom förinstallerade med ett spel, som gamla kasetter. Vill man byta spel får man även byta grafikkort. Och såklart blåsa av dammet emellanåt

Permalänk
Medlem
Skrivet av prod01:

Kul om grafikkorten kom förinstallerade med ett spel, som gamla kasetter. Vill man byta spel får man även byta grafikkort. Och såklart blåsa av dammet emellanåt

Grafikkorten kommer ju iaf med dammskydd på pcie kontakten!

Permalänk
Medlem

Körde hela operativsystemet i videominnet som agerade ramdisk på min Microbox II dator 1984. (cpu Motorola 68B09E, grafikprocessor NEC GDC uPD7220, videominne 512KB)

Permalänk
Medlem

Amigan kunde ochså köras ifrån ramdisk.

Ser dock ingen fördel med det i artikeln då både speldata och speldata ska samsas om pcie porten.
Däremot borde 2st 3090 i samma burk dår den ena är en ultrasnabb ramdisk som får ps5ans hastighet att verka långsam lite cool och så kör man spelet på den amdra 3090

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem

Jag vet inte hur användbart detta är.
Men väldigt coolt!

Skrivet av svolter:

Borde detta inte vara det enklaste sättet att testa hur mycket VRAM man egentligen behöver?
Funderat på detta varför ingen testare helt enkelt reserverar t.ex. 2 GB minne på ett 3080 med 10 GB så att 8 GB är rent tekniskt tillgängligt för applikationer och benchmarkar. Sedan ökar man reservationen till 3 GB och så vidare. Tills man får en prestanda förlust för att tillgängligt minne är mindre än vad som behövs. För att helt utreda hur mycket som faktiskt används VS hur mycket som bara är allokerat för att det finns.
Detta program verkar gå att använda i detta syfte.

En väldigt intressant idé.
Om man kan förhindra att delar av vram-driven cachas ut till vanligt ram eller disk så låter det helt klart som ett intressant experiment.

Skrivet av philipborg:

Troligen sämre än RAM, då data flödet blir:
GPU VRAM -> CPU -> RAM/CPU CACHE -> CPU -> GPU
istället för RAMDISK:
RAM -> CPU -> GPU

Det blir extremt dyrt och prestandan blir inte heller så bra. För GPU data så laddar redan de flesta program in så mycket de kan med en enorm cache. Så om man börjar fylla det med saker som inte är för GPU'n ens så "slösar" man GPU VRAM på det istället för mer saker som faktiskt är för GPU'n.

Så för alla scenarion är det sämre än en vanlig RAM disk, då det presterar sämre och är dyrare per GB. RAM disk i sig är någonting jag är lite skeptisk till. Det finns användningsområden, men för det mesta så är enligt mig vanlig OS filcache trevligare. Det ger också RAM hastighet till filläsningar men dynamiskt skalar, populeras och bearbetas. Alla vanliga OS har det redan föraktiverat, allt som behövs är att man har extra ledigt RAM. (Vilket behövs för RAM DISK också.) Den stora nackdelen är att den populerar först cachen vid första inläsning, någonting man kan explicit göra vid boot med RAM Disk. Men så fort det är inläst så går det riktigt snabbt.

Vill man ha snabbare datainläsning så är det viktiga att gå direkt från SSD -> GPU utan att involvera RAM, vilket är vad DirectStorage handlar om. Då har man bara GPU relaterad data i VRAM och den kan fylla det hur mycket den vill. Som skaparen av GpuRamDrive säger, detta är bara en cool PoC och inte en seriös lösning.

Bra inlägg
Men det är inte otänkbart att det i framtiden dels kan komma snabbare versioner av PCI Express (framförallt snabbare än PCI E 3.0 vilket de flesta fortfarande använder), dels grafikkort med ännu mer minne än RTX 3090 och att kommunikationen mellan CPU och GPU kan förbättras/integreras tightare i framtida versioner så att CPU och GPU kan kommunicera med varandra utan att gå via primär ram minne.

Just nu är det coolt som proof of concept även om nyttan är liten eller obefintlig.
Men eventuellt kan det blir bättre och mer användbart i framtiden.

Permalänk
Avstängd
Skrivet av ExcZist:

2142 så kan vi installera Crysis 43 i glasögonen.

Jag kollade faktiskt upp detta. Jag gick ut på Wayback Machine, rippade ut hela källkoden och skrev sedan in den igen baklänges. Då fick jag fram Way-ahead Machine. En snabb sökning visade att redan 2047 kan vi installera och spela Crysis 5 i våra Google Glass som Google då åter igen producerar. Kommentarer gjorde också gällande att de var säkra på att Google sålde spelresultaten i smyg till tredjepartstillverkare av gaming-glasögonbågar.

Permalänk
Medlem
Skrivet av prod01:

Kul om grafikkorten kom förinstallerade med ett spel, som gamla kasetter. Vill man byta spel får man även byta grafikkort. Och såklart blåsa av dammet emellanåt

Jag gillar/gillade cartridge eran
Har tänkt liknande tanke som dig.
Men om det ska användas på datorer med mer än 1st PCI Expressplats så hade det varit möjligt att ha spel på en cartridge och fortfarande ha ett separat dedikerat grafikkort.
Spelcartridgen skulle kunna ha någon speciell acceleratorkrets som accelererar saker som dagens grafikkort är dålig på eller som bara stöds av vissa grafikkort eller dyl och att CPU och grafikkoret gör resten.

Men i dag med Cuda och tensor kärnor och dyl så skulle det väl vara mer sällsynt att man kan göra en meningsfull acceleratorkrets med saker som grafikkorten inte kan göra lika bra.

Men det hade ändå varit lite coolt om man kunde ha en PCI E extender så man kan ha en PCI E slot i toppen av chassit och plugga in en cartridge med snabba accesstider och utan att man behöver installera spelet.

Jag tror det hade varit möjligt att lösa rent tekniskt.
Men att det hade blivit för dyrt. För liten marknad för att det ska vara lönsamt.