Test: 9950X3D överträffar förväntningarna

Nvidias svar på för lite videominne: Komprimerade texturer

Permalänk
Melding Plague

Nvidias svar på för lite videominne: Komprimerade texturer

Neural Texture Compression kan minska minnesanvändningen med 96 procent.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Finns det ens någon fördel för användaren i slutändan jämfört med mer minne och icke komprimerade texturer som konstant måste "packas upp" etc.

Känns som en onödig investering av teknik istället för mer minne.

Permalänk
Medlem

Att komprimera en bild så att bara 4% av originalet av storleken, känns så att det är gjort att du ska få artefakter och suddig bild. Vad vore om dom hade mer video minne så att den klarar av att visa orginalet. I så fall borde datorns RAM minne vara kvar på >1 GB. Och nyttja samma på RAM minnet. Och sedan förvänta att datorn ska vara exakt lika snabb.

Visa signatur

NZXT H7 Flow, ASUS Z390-E, Intel 9700K 3.6GHz, 16 GB Corsair Vengeance 3.2GHz, Samsung EVO 970 500GB, MSI RTX 2070 Gaming Z, Seagate Barracuda 4 TB, Corsair RM750X V2 750W, Noctua NH-D15, 1 st FD Venturi HF-14, 6 st Phantek M25 120mm, Dell S2721DGFA,

Permalänk
Medlem
Skrivet av Nivity:

Finns det ens någon fördel för användaren i slutändan jämfört med mer minne och icke komprimerade texturer som konstant måste "packas upp" etc.

Känns som en onödig investering av teknik istället för mer minne.

Jag tänkte skriva "billigare grafikkort", men det är ju nVidia vi pratat om så det korrekta svaret är nog "större vinst (för dem)".

Visa signatur

Modermodem från ONOFF och bildskärmsutrustning från Electrolux. US Robotics 28.8K telefonuppringd internetförbindelse. Har en förkärlek för tysk tjejpop.

Permalänk
Medlem

2025, året där bildkvaliteten bara blev sämre och sämre hela tiden, samtidigt som grafikkorten bara blev dyrare och dyrare.

Permalänk
Medlem
Skrivet av Mörksuggan:

Att komprimera en bild så att bara 4% av originalet av storleken, känns så att det är gjort att du ska få artefakter och suddig bild. Vad vore om dom hade mer video minne så att den klarar av att visa orginalet. I så fall borde datorns RAM minne vara kvar på >1 GB. Och nyttja samma på RAM minnet. Och sedan förvänta att datorn ska vara exakt lika snabb.

Argumentet blir nog, alla använder ju jpg för bilder utan att klaga. Detta kommer gå så bra så.

Permalänk
Medlem

Svaret på allt från Nvidia är: Just use AI bro, trust me bro!

Neural bla bla betyder kanske att det är någon model som körs för uppackning. Är detta delvis DLSS för texturer?

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

Någon som sa att det är första generationen kort där vi får det som blir över. Andrahandssorteringen.

Känns bra.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

Givetvis med blur filter (TAA) påslaget, så jäkla deppigt att TAA ens finns och att allting görs för att det ska vara påslaget eftersom man tar genvägar på genvägar.

Permalänk
Medlem

You'll use AI and be happy.

Permalänk
Medlem

Vad teknikneggo ni är på ett teknikforum. Innan lzh, zip o.s.v. kom tog filer jättemycket plats, innan jpeg kom tog bilder jättemycket plats, innan mp3 kom tog musik jättemycket plats o.s.v. komprimering med bättre algoritmer är något bra, det är inte något dåligt.

Visa signatur

Amd o Apple

Permalänk
Medlem
Skrivet av Nivity:

Finns det ens någon fördel för användaren i slutändan jämfört med mer minne och icke komprimerade texturer som konstant måste "packas upp" etc.

Känns som en onödig investering av teknik istället för mer minne.

OM man i verkligheten får den nivå av komprimering som de pratar om, och med gott resultat, så skulle det ju dock innebära en jämförelse med "sjukt mycket minne".
Och om vi pratar att faktiskt ha ett grafikkort med "sjukt mycket minne" så kommer de ju aldrig vilja sälja det annat än till enterprise/datacenter (där prisnivån för "typ samma hårdvara" som säljs till konsument är mycket mer tilltalande för Nvidia).

Visa signatur

Desktop spel m.m.: Ryzen 9800X3D || MSI X870 Tomahawk Wifi || MSI Ventus 3x 5080 || Gskill FlareX 6000 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Arbetsstation: Ryzen 7945HX || Minisforum BD790i || Asus Proart 4070 Ti Super || Kingston Fury Impact 5600 65 GB || WD SN850 2TB || Samsung 990 Pro 2TB || Fractal Ridge
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Avstängd
Skrivet av Mindfighter:

Vad teknikneggo ni är på ett teknikforum. Innan lzh, zip o.s.v. kom tog filer jättemycket plats, innan jpeg kom tog bilder jättemycket plats, innan mp3 kom tog musik jättemycket plats o.s.v. komprimering med bättre algoritmer är något bra, det är inte något dåligt.

Folk gnäller för de kan och hatar nvidia men köper ändå nvidia framför amd.

Permalänk
Medlem

...så man kommer använda AI för att hitta på vad det är som skall visas?

<sorry, lågt hängande frukt>

Permalänk
Medlem

Det här kommer ju bli hur kul som helst för de som använder sig av spel-dgpu:er för att tex skapa AI-bilder.

Nästa xx90-modell kommer med 8Gb VRAM, så det blir att köpa nivdias dgpu:er för beräkningar, bara 80k, eller hyra tid på någon tjänst....

Permalänk
Medlem

Så mer fejk från Nvidia då. Fejkframes och fejktexturer.

Det enda som inte är fejk är Nvidias ökande marginaler och högre priser för kunderna.

Tråkig utveckling.

Permalänk
Medlem

Så ännu ett "you're doing it wrong" argument med en lösning som troligen kommer kosta speltillverkarna licensavgifter?

Visa signatur

There are two kinds of people: 1. Those that can extrapolate from incomplete data.
Min tråkiga hemsida om mitt bygge och lite annat smått o gott: www.2x3m4u.net

Permalänk
Medlem

Det handlar inte bara om att komprimera texturer. Slutmålet med Neural Texture Compression är att det kan användas till saker som subsurface scattering som är nästan omöjligt att göra riktigt, riktigt bra med shaders. Inte ens offline rendering är speciellt bra på det (Tarkin i Rouge One t.ex.), datorgrafik ser alltid ut som datorgrafik... Medans Neural Texture Compression kan bli mer åt deep fake hållet, i terorin (Terminator dark fate t.ex). Det känns som detta kommer behövas för att korsa gränsen till foto-realism

Jag har för mig att detta kommer finnas med i half-life 2 RTX, inklusive på naturliga material som monsters hud osv. Det skall bli spännande att se.

Visa signatur

- 5090

Permalänk
Medlem

Om det fungerar är det väll trevligt, kanske folk som har 16gb vram kort och inte ens spelar i 4k kan känna att de inte behöver uppgradera till ett 20gb+ kort när nästa kasst optimerade AAAA spel kommer ut

Visa signatur

CPU: i9 13900kf MB: Strix z790-F RAM: 32GB Dominator Platinum RGB 6400cl36
GPU: RTX 4090 Suprim X Main Display: MSI Optix MAG281URF
SSD: Samsung 980 Pro & 990 Pro 1TB, WD SN850X 2TB, Kingston KC3000 4TB
Cooler: h150i Elite LCD PSU:AX1200i Case: Phanteks P600S TG
Peripherals: Logitech G915, Superlight 2 DEX, Pro X Wireless, Powerplay

Permalänk
Medlem

Kanske kan liknas med DirectX Storage (heter det va?), kanske blir bra, i det spel det implementeras, för den spelare som har Nvidia 50-series

Måste vi ha mer proprietär teknik, kan vi inte bara få optimerade spel istället?

Ännu ett steg i Nvidias plan att låsa kunder till märket då AMD inte kan konkurrera med tjänster, såklart löser AMD det med mer minne bara i detta fall? Eller får det utvecklare att optimera mer för Nvidia och mindre för AMD?

Edit: gubbgnäll såhär en måndagsmorgon...

Permalänk
Medlem

Skulle det inte kunna inne ära att man istället för 16 Gb sämre minne, kan köra 8 Gb bättre minne. Typ som när amd körde HBM och nvidia hade gddr? Och därmed öka prestandan?

Permalänk
Medlem
Skrivet av Nyhet:

Neural Texture Compression kan minska minnesanvändningen med 96 procent.

Läs hela artikeln här

Komprimering "byter" utrymme mot beräkningskraft.
(Hur många här är gamla nog att minnas när man la till komprimeringstekniker för både RAM och disk? Gick så där...)

Med tanke på att Nvidia har satsat stort på raytracing i sina kort har de nog beräkningskraft de kan använda utan att det påverkar FPSen så att säga.

Lite fjantigt att de väljer att göra det till en stor sak och kallar det AI. Bara att informera att de lägger till inbyggd komprimering.

Permalänk
Medlem

Detta är ju rätt bra på sätt och vis då folks befintliga gpuer kommer hålla längre. Sitter man på ett 3060ti med 8 GB vram kan man kanske köra det några år till utan problem.
Sen konmer det väl tyvärr leda till att man inte får mer vram på nya gpuer och det är ju synd i de fall spelen inte har stöd för neural rendering. Hoppas inte detta leder till att nvidia plockar bort vram framgent - "Nya RTX 8090, med hela 4 GB vram..."

Permalänk
Medlem
Skrivet av mrpijey:

Så mer fejk från Nvidia då. Fejkframes och fejktexturer.

Det enda som inte är fejk är Nvidias ökande marginaler och högre priser för kunderna.

Tråkig utveckling.

Låt oss tänka ett scenario där du som användare omöjligen kan se skillnad på dessa fejkade frames och fejkade texturer, vad är exakt problemet då?
Obs, säger inte att så är fallet i dagsläget, men många verkar hänga upp sig på någon sorts "äkthet" i frames, när de redan ifrån grunden är fejkade på hundratals olika små genvägar och trix för att få en prestanda som duger för någon sorts upplevelse. Det här är bara nästa steg.

Permalänk
Medlem

Dom jobbar hårt med att försöka få ner mängden ram på konsumentkort så inte företagen kan köpa sådana billigt istället för svindyra enterprise kort..

Permalänk
Sjusovarn
Skrivet av Eismannen:

Detta är ju rätt bra på sätt och vis då folks befintliga gpuer kommer hålla längre. Sitter man på ett 3060ti med 8 GB vram kan man kanske köra det några år till utan problem.
Sen konmer det väl tyvärr leda till att man inte får mer vram på nya gpuer och det är ju synd i de fall spelen inte har stöd för neural rendering. Hoppas inte detta leder till att nvidia plockar bort vram framgent - "Nya RTX 8090, med hela 4 GB vram..."

Tyvärr är det ju inte så att nya funktioner spiller över på äldre generationer. Så även om det hade varit smidigt med 96% mindre texturer så hade det ändå krävt att man hade senaste och modernaste generationen.

Permalänk
Medlem
Skrivet av My2nd:

Tyvärr är det ju inte så att nya funktioner spiller över på äldre generationer. Så även om det hade varit smidigt med 96% mindre texturer så hade det ändå krävt att man hade senaste och modernaste generationen.

Det är inte sant, det beror på om hårdvarustödet finns.

Permalänk
Medlem

Missar jag något här eller varför pratar alla om fejkframes?

Är inte skillnaden mot hur det är i vanliga fall att det packas upp endast vid användning. Själva komprimeringen och den så kallade "fakeframen" är detsamma med eller utan.

Permalänk
Medlem
Skrivet av ThomasLidstrom:

...så man kommer använda AI för att hitta på vad det är som skall visas?

<sorry, lågt hängande frukt>

Fejktexturer! 😱

Visa signatur

Desktop spel m.m.: Ryzen 9800X3D || MSI X870 Tomahawk Wifi || MSI Ventus 3x 5080 || Gskill FlareX 6000 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Arbetsstation: Ryzen 7945HX || Minisforum BD790i || Asus Proart 4070 Ti Super || Kingston Fury Impact 5600 65 GB || WD SN850 2TB || Samsung 990 Pro 2TB || Fractal Ridge
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Hedersmedlem
Skrivet av My2nd:

Tyvärr är det ju inte så att nya funktioner spiller över på äldre generationer. Så även om det hade varit smidigt med 96% mindre texturer så hade det ändå krävt att man hade senaste och modernaste generationen.

Detta demot funkar ju på RTX 2000-kort, och senaste DLSS-modellerna utöver MFG funkar också på RTX 2000-kort.

Edit: Jag mindes fel, det fungerar på ännu äldre kort! Dock med dålig prestanda, så RTX 4000 rekommenderas fortfarande.

Citat:

GPU for NTC decompression on load and transcoding to BCn:

Minimum: Anything compatible with Shader Model 6 [*]
Recommended: NVIDIA Turing (RTX 2000 series) and newer.

GPU for NTC inference on sample:

Minimum: Anything compatible with Shader Model 6 (will be functional but very slow) [*]
Recommended: NVIDIA Ada (RTX 4000 series) and newer.

GPU for NTC compression:

Minimum: NVIDIA Turing and (RTX 2000 series).
Recommended: NVIDIA Ada (RTX 4000 series) and newer.

[*] The oldest GPUs that the NTC SDK functionality has been validated on are NVIDIA GTX 1000 series, AMD Radeon RX 6000 series, Intel Arc A series.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS