Nvidias svar på för lite videominne: Komprimerade texturer

Permalänk
Medlem

Ok, vi leker med foliehatten nu, för tekniken i sig kan ju användas till annat, men häng med på en sväng nu!

Nvidia tjänar mest pengar på "AI".
Bortsett från att minnen i sig kostar pengar så kan man ju genom detta införa en artificiell begränsning som differentierar konsument och pro-produkterna.

6090 släpps med 4GB ram för 40.000:- med "minneskomprimering" som gör att det fungerar i spel. AI-uppskalning-haxxxor ENABLED!

-Jaha, du vill använda kortet på ett annat sätt och behöver mer minne?
6090 pro med 32GB minne finns tillgänglig för leverans.
Egentligen skulle detta kort kosta 42000:- men sen blir det lite extra för att det ligger i ett annat segment osv så vi säger 50.000:- jämt, leverans om en vecka... NEJ vänta jag läste fel! Det står faktiskt AI på kartongen och då blir det 90.000:- extra så vi landar på 140.000:-.

Egentligen inget konstigt i sig att man segmentering (vilket man redan gör och alltid gjort) men det är trist när man gör fransteg med teknik som leder till "försämringar" för lillkonsumenten.

Som sagt nu leker jag bara folie-riddare! Man kanske kan lura med någon ut i vallgraven, hahaha.

Permalänk
Medlem
Skrivet av Eismannen:

Detta är ju rätt bra på sätt och vis då folks befintliga gpuer kommer hålla längre. Sitter man på ett 3060ti med 8 GB vram kan man kanske köra det några år till utan problem.
Sen konmer det väl tyvärr leda till att man inte får mer vram på nya gpuer och det är ju synd i de fall spelen inte har stöd för neural rendering. Hoppas inte detta leder till att nvidia plockar bort vram framgent - "Nya RTX 8090, med hela 4 GB vram..."

1. Tekniken lär inte dyka upp i särskilt många spel de närmaste 3-4 åren, möjligtvis några Nvidia-sponsrade titlar.
2. Vi vet inte hur mycket de olika serierna samt de olika klasserna i serierna påverkas, framför allt inte i en komplett scen med denna teknik.

Det troliga är att ett 4090 påverkas ganska lite medan ett 4060 med betydligt sämre beräkningskraft påverkas mer, dvs korten som mest behöver det är de som kommer ha minst nytta/störst nackdelar med denna teknik (detsamma gäller 50-serien). Det är även tveksamt hur detta påverkar andra features som tävlar om samma resurser, DLSS, MFG, FG. Dvs. i ett riktigt spel på mer "vanlig" nivå av hårdvara så byter du kanske betydligt mer prestanda/fps mot texturkvalitét än vad exemplet i videon gör gällande.

Permalänk
Avstängd

Är det verkligen nödvändigt med alla dessa kompromisser när det kommer till grafik? Kan inte vi bara nöja oss med vad dagens grafikkort kan rendera utan massa gissningar? Det ser väl ändå snyggt ut, eller? Quake 2 med en Voodoo 2a såg bra ut och där behövdes inte några generativa AI-rutor.

Permalänk
Medlem
Skrivet av SuperNova:

Ok, vi leker med foliehatten nu, för tekniken i sig kan ju användas till annat, men häng med på en sväng nu!

Nvidia tjänar mest pengar på "AI".
Bortsett från att minnen i sig kostar pengar så kan man ju genom detta införa en artificiell begränsning som differentierar konsument och pro-produkterna.

6090 släpps med 4GB ram för 40.000:- med "minneskomprimering" som gör att det fungerar i spel. AI-uppskalning-haxxxor ENABLED!

-Jaha, du vill använda kortet på ett annat sätt och behöver mer minne?
6090 pro med 32GB minne finns tillgänglig för leverans.
Egentligen skulle detta kort kosta 42000:- men sen blir det lite extra för att det ligger i ett annat segment osv så vi säger 50.000:- jämt, leverans om en vecka... NEJ vänta jag läste fel! Det står faktiskt AI på kartongen och då blir det 90.000:- extra så vi landar på 140.000:-.

Egentligen inget konstigt i sig att man segmentering (vilket man redan gör och alltid gjort) men det är trist när man gör fransteg med teknik som leder till "försämringar" för lillkonsumenten.

Som sagt nu leker jag bara folie-riddare! Man kanske kan lura med någon ut i vallgraven, hahaha.

Helt rimlig princip, men skulle kanske snarare gissa att konsumentkort inte fortsätter att få mer minne i samma utsträckning som hittills, snarare än chockexemplet med 6090 med 4GB.

(Det låter ju, som du också konstaterar, i grund och botten bara som den vanliga marknadssegmentering som alla de där bolagen sysslar med hela tiden.)

Visa signatur

Desktop spel m.m.: Ryzen 9800X3D || MSI X870 Tomahawk Wifi || MSI Ventus 3x 5080 || Gskill FlareX 6000 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Arbetsstation: Ryzen 7945HX || Minisforum BD790i || Asus Proart 4070 Ti Super || Kingston Fury Impact 5600 65 GB || WD SN850 2TB || Samsung 990 Pro 2TB || Fractal Ridge
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av My2nd:

Tyvärr är det ju inte så att nya funktioner spiller över på äldre generationer. Så även om det hade varit smidigt med 96% mindre texturer så hade det ändå krävt att man hade senaste och modernaste generationen.

Det gör det visst. Senast var det dlss4 med transformer model som funkar på så gamla kort som 2xxx serien. Det enda som inte spillt över hittills är frame generation och multi frame generation. Sen får vi väl se vad det blir av just denna funktion, det kan man väl bara spekulera i.

Permalänk
Medlem

640kB VRAM är tillräckligt -- Jensen Huang, 2025

Så mot potentiellt mer strömförbrukning kan man nöja sig med mindre VRAM? Billigare för Nvidia, dyrare för kunden.

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Komprimering "byter" utrymme mot beräkningskraft.
(Hur många här är gamla nog att minnas när man la till komprimeringstekniker för både RAM och disk? Gick så där...)

Med tanke på att Nvidia har satsat stort på raytracing i sina kort har de nog beräkningskraft de kan använda utan att det påverkar FPSen så att säga.

Lite fjantigt att de väljer att göra det till en stor sak och kallar det AI. Bara att informera att de lägger till inbyggd komprimering.

Texturkomprimering är inget nytt, det har använts länge och är standard nu för tiden. Det nya här är att de använder ett neuralt nätverk för att återskapa texturerna istället för att använda traditionell BCn-komprimering.

Permalänk
Medlem
Skrivet av Mindfighter:

Vad teknikneggo ni är på ett teknikforum. Innan lzh, zip o.s.v. kom tog filer jättemycket plats, innan jpeg kom tog bilder jättemycket plats, innan mp3 kom tog musik jättemycket plats o.s.v. komprimering med bättre algoritmer är något bra, det är inte något dåligt.

Texturer är redan väldigt komprimerade, typ din liknelse vid mp3. Om vi spinner vidare så är detta komprimering som kräver att du lyssnar på din musik under vatten (TAA) annars börjar dina öron blöda.

Permalänk
Medlem
Skrivet av tozz:

Texturer är redan väldigt komprimerade, typ din liknelse vid mp3. Om vi spinner vidare så är detta komprimering som kräver att du lyssnar på din musik under vatten (TAA) annars börjar dina öron blöda.

Återstår väl att se då, kanske istället är mer som mp3 vs mp4 eller ogg som är mindre men har högre kvalité ändå p.g.a. bättre algoritmer.

Visa signatur

Amd o Apple

Permalänk
Medlem
Skrivet av Maximo:

Missar jag något här eller varför pratar alla om fejkframes?

Är inte skillnaden mot hur det är i vanliga fall att det packas upp endast vid användning. Själva komprimeringen och den så kallade "fakeframen" är detsamma med eller utan.

fake frames handlar om dlss4, framegen.

Permalänk
Medlem

Jag fick flashbacks till 1999 när jag läste den här artikeln. Det var ju då det introducerades S3TC textur komprimering på GeForce 256 korten. Det var stora grejer på den tiden! Gjorde ju så att AGP bussen inte gick ner sig helt när texturer skulle laddas.😉

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Lite fjantigt att de väljer att göra det till en stor sak och kallar det AI. Bara att informera att de lägger till inbyggd komprimering.

Gör de verkligen en stor grej av det? Sweclockers skriver en tillspetsad artikel baserad på en Youtube-video från tredjepart (som jag personligen aldrig sett tidigare, men de kanske är välkända i vissa kretsar, vad vet jag) som testar en betaversion av Nvidias kodbibliotek och medföljande demo för denna funktion (taget från Github).

Jag utesluter förstås inte att Nvidia vid någon tidpunkt kommer göra en stor grej av det, men upplever att det inte skett ännu iaf.

Skrivet av perost:

Texturkomprimering är inget nytt, det har använts länge och är standard nu för tiden. Det nya här är att de använder ett neuralt nätverk för att återskapa texturerna istället för att använda traditionell BCn-komprimering.

Ja, att de kallar just denna grej för "Neural Texture Compression" (antar att det är vad som avses med "kallar det AI"?) är väl helt okej om nu en av de utmärkande egenskaperna för just den här varianten av komprimering är att använda neurala nätverk, till skillnad från traditionell texturkomprimering...

Visa signatur

Desktop spel m.m.: Ryzen 9800X3D || MSI X870 Tomahawk Wifi || MSI Ventus 3x 5080 || Gskill FlareX 6000 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Arbetsstation: Ryzen 7945HX || Minisforum BD790i || Asus Proart 4070 Ti Super || Kingston Fury Impact 5600 65 GB || WD SN850 2TB || Samsung 990 Pro 2TB || Fractal Ridge
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av SuperNova:

Ok, vi leker med foliehatten nu, för tekniken i sig kan ju användas till annat, men häng med på en sväng nu!

Nvidia tjänar mest pengar på "AI".
Bortsett från att minnen i sig kostar pengar så kan man ju genom detta införa en artificiell begränsning som differentierar konsument och pro-produkterna.

6090 släpps med 4GB ram för 40.000:- med "minneskomprimering" som gör att det fungerar i spel. AI-uppskalning-haxxxor ENABLED!

-Jaha, du vill använda kortet på ett annat sätt och behöver mer minne?
6090 pro med 32GB minne finns tillgänglig för leverans.
Egentligen skulle detta kort kosta 42000:- men sen blir det lite extra för att det ligger i ett annat segment osv så vi säger 50.000:- jämt, leverans om en vecka... NEJ vänta jag läste fel! Det står faktiskt AI på kartongen och då blir det 90.000:- extra så vi landar på 140.000:-.

Egentligen inget konstigt i sig att man segmentering (vilket man redan gör och alltid gjort) men det är trist när man gör fransteg med teknik som leder till "försämringar" för lillkonsumenten.

Som sagt nu leker jag bara folie-riddare! Man kanske kan lura med någon ut i vallgraven, hahaha.

Min folihatt viskar i mitt öra att detta bara är Nvidias ursäkt för 12gb eller mindre. Tekniken kommer först efter korten är utdaterade ändå troligen. Varför ge korten mer VRAM idag när vi kan lova bättre saker längre fram?

Troligtvis är denna teknik riktad mot arbetslaster där ex AI har flaskhalsar i I/O och minne mer än i GPUns beräkningskraft. Sen att man säger att det ska hjälpa oss i spel är mer av en eftertanke?

Permalänk
Medlem

Jag undrar om en sådan här sak kan orsaka micro-stuttering om det inte implementeras perfekt, och det vore ju en stor nackdel.

Permalänk
Medlem
Skrivet av Mindfighter:

Vad teknikneggo ni är på ett teknikforum. Innan lzh, zip o.s.v. kom tog filer jättemycket plats, innan jpeg kom tog bilder jättemycket plats, innan mp3 kom tog musik jättemycket plats o.s.v. komprimering med bättre algoritmer är något bra, det är inte något dåligt.

Välkommen till Gnällclockers - Siten där vi gnäller på alla nyheter...

Permalänk
Medlem
Skrivet av molcos:

Argumentet blir nog, alla använder ju jpg för bilder utan att klaga. Detta kommer gå så bra så.

Både ja och nej. Tar du en bild med en kamera som tar både jpeg och raw samtidigt, så kommer raw bilden se suddig ut. För den behöver bli behandlad i program efteråt. Men om du tar typ en bild med en Hasselblad mellanformatskamera på 100 MP och med 16 bitars och sedan komprimera den till 4% av ursprungliga bilden raw eller jpeg så blir det knappast en bra bild.

Visa signatur

NZXT H7 Flow, ASUS Z390-E, Intel 9700K 3.6GHz, 16 GB Corsair Vengeance 3.2GHz, Samsung EVO 970 500GB, MSI RTX 2070 Gaming Z, Seagate Barracuda 4 TB, Corsair RM750X V2 750W, Noctua NH-D15, 1 st FD Venturi HF-14, 6 st Phantek M25 120mm, Dell S2721DGFA,

Permalänk
Medlem
Skrivet av kelthar:

Någon som sa att det är första generationen kort där vi får det som blir över. Andrahandssorteringen.

Känns bra.

Ja 5090 är en nerskuren gpu som inte dög till AI kort eller Quadrokort. T.ex 1/4 av L3 cachen är väck osv. Om det kommer en onerskuren GPU så kommer den att heta 5090 Ti.

Anledningen till att varken Nvidia eller ATI ökar mängden minnen på korten är för att det skulle skära in i deras försäljning av vida mer lönsamma Quadrokort och Fireprokort som har 2x mer minne än konsumentkorten och dessutom är det ECC-minne. Ett 5090 Quadrokort lär kosta typ 100 000 - 120 000 kronor när det kommer. Intel har inte visat någon vilja till att vilja bryta med den här affärsmodellen. Dessutom kräver deras GPUer att moderkortet stödjer resizeable bar tekniken, vilket betyder att de inte platsar i äldre moderkort som saknar stöd för detta. Det ser onekligen illa ut på grafikkortsfronten.

Permalänk
Medlem
Skrivet av tozz:

Givetvis med blur filter (TAA) påslaget, så jäkla deppigt att TAA ens finns och att allting görs för att det ska vara påslaget eftersom man tar genvägar på genvägar.

Jag minns när man gameade på 320x240 med 256 färger. En VGA-monitor klarade oftast av bara 640x480 men en del kunde gå till hella 800x600. Allt gammalt är nytt igen!

Permalänk
Medlem

Om nu spel kommer börja kräva 32gb+ så är detta kanon för oss konsumenter då vi slipper betala för kort med mycket mer bus samt fler vram moduler.

I princip möjliggör detta att man kan spela med ultra texturer på xx60 serien och rt utan att bottleneckas av vram

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Skrivet av Mindfighter:

Vad teknikneggo ni är på ett teknikforum. Innan lzh, zip o.s.v. kom tog filer jättemycket plats, innan jpeg kom tog bilder jättemycket plats, innan mp3 kom tog musik jättemycket plats o.s.v. komprimering med bättre algoritmer är något bra, det är inte något dåligt.

Fast vem köper grafikkort här för spel.
Vi vill ha virtuella Ai katter och 32GB grafik minne är ett minimum till dessa. Nvidia lösning hjälper ej oss.

Permalänk
Medlem

Som jag förstår det komprimerar algoritmen NTC olika texturversioner av samma PBR material (skadad lackyta, rostig etc), vilket gynnar scener med olika versioner av samma material men inte riktigt scener med en många olika typer av material men av samma kvalitet (laboratorium).

"Neural Texture Compression (NTC) is an algorithm designed to compress all PBR textures used for a single material together. It works best when the texture channels are correlated with each other, for example, detail in the albedo texture corresponds to detail in the normal texture. Up to 16 texture channels can be compressed into one NTC texture set. Typical PBR materials have 9-10 channels: 3x albedo, 3x normal, metalness, roughness, ambient occlusion, opacity."

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Vi vill ha virtuella Ai katter och 32GB grafik inne är ett minimum till dessa.

Näää, jag som vill ha en virtuell Ai katt!

Visa signatur

Amd o Apple

Permalänk
Medlem
Skrivet av Nivity:

Finns det ens någon fördel för användaren i slutändan jämfört med mer minne och icke komprimerade texturer som konstant måste "packas upp" etc.

Känns som en onödig investering av teknik istället för mer minne.

Fast tycker det låter väldigt smart och bra. Varför fläska på med mer minne om man kan göra det mindre med mjukvara? De befintliga korten kommer hålla längre. Fast det kräver såklart att spelen kör med tekniken, så det ligger i framtiden.

Det är väl inte första gången NVIDIA kommer med komprimerade texturer heller? Har för mig att dom kört med det länge? Men detta är väl ett steg till misstänker jag.

Permalänk
Testpilot
Skrivet av Thomas:

Detta demot funkar ju på RTX 2000-kort, och senaste DLSS-modellerna utöver MFG funkar också på RTX 2000-kort.

Edit: Jag mindes fel, det fungerar på ännu äldre kort! Dock med dålig prestanda, så RTX 4000 rekommenderas fortfarande.

"[...] [*] The oldest GPUs that the NTC SDK functionality has been validated on are NVIDIA GTX 1000 series, AMD Radeon RX 6000 series, Intel Arc A series."

Det faktum att tekniken teoretiskt sett även kan fungera på AMD:s 6000-serie och Intels A-serie är ändå ett positivt tecken, relativt sett. För egen del ser jag mest fram emot bättre hantering av texturer – om AI och olika algoritmer kan bidra till en mer effektiv texturhantering är det en solklar vinst i mina ögon.

VRAM-kraven har ökat orimligt mycket de senaste åren, till stor del på grund av bristfällig eller helt utebliven komprimering från utvecklarnas sida. Titta bara på nedladdningsstorleken för Fallout 4, valfritt CoD eller Ubisoft-spel – spelen är ofta över 120 GB, där texturer utgör mer än 70 % av den totala datamängden. Trots detta ser texturerna sällan särskilt mycket bättre ut, om ens bättre alls, jämfört med många mod-packs till Skyrim eller Witcher 3, som dessutom är betydligt mindre i storlek.

Om både nedladdningsstorlekar kan minska och GPU-sidans hantering av uppackning förbättras, har jag inget att klaga på när det gäller tekniker som den Nvidia nu utvecklar. Jag hoppas bara att AMD och Intel tar detta i beaktande när de designar framtida grafikkort – att det inte bara handlar om att trycka in så många RT-kärnor som möjligt, utan också om att dedikera kisel för komprimering och uppackning av texturer.

Visa signatur

< R9 5900X | 32GB 3200 MT/s | RTX 3090 Ti >

< R5 7600X | 32GB 6400 MT/s | RX 9070 XT >

Permalänk
Medlem
Skrivet av Pellepelikan:

Skulle det inte kunna inne ära att man istället för 16 Gb sämre minne, kan köra 8 Gb bättre minne. Typ som när amd körde HBM och nvidia hade gddr? Och därmed öka prestandan?

Jo men allt HBMminne är bokat för AI-acceleratorer. Jag har läst att det är slutsålt överallt. Den här AI-hypen drivs av enorma mängder spekulativt kapital från investeringsfirmor som kan låna upp miljarder dollar. När ett lån sker skapas det mer skuldpengar och den här ökande penningmängden dumpas in i AI-företag som inte har några problem med att köpa GPU-liknande kretsar med enormt mycket högre prestanda än vad som finns i grafikkort för konsumenter. ATIs bästa AI-krets har 288 gigabyte HBM minne och allting utom rasterkretsar för den är inte menad att ha en monitor kopplad till sig. Det går åt massor av fysiskt och mänskligt kapital till att konstruera och bygga dessa kretsar för AI beräkningar och de suger upp all HBM-produktionskapacitet som finns. Lägg märke till att Nvidia använde en EPS-kontakt istället för den opålitliga 12-2V6 till sitt AI-flaggskepp. De bästa ingenjörerna går till AI-kretsprojekten för det är de som är de stora kassakorna för grafikkortsföretagen, inte grafikkortskretsar.

The Radeon Instinct MI325X is a professional graphics card by AMD, launched in October 2024. Built on the 5 nm process, and based on the Aqua Vanjaram graphics processor, the card does not support DirectX. Since Radeon Instinct MI325X does not support DirectX 11 or DirectX 12, it might not be able to run all the latest games. The Aqua Vanjaram graphics processor is a large chip with a die area of 1017 mm² and 153,000 million transistors. It features 19456 shading units, 1216 texture mapping units, and 0 ROPs. Also included are 1216 tensor cores which help improve the speed of machine learning applications. AMD has paired 288 GB HBM3e memory with the Radeon Instinct MI325X, which are connected using a 8192-bit memory interface. The GPU is operating at a frequency of 1000 MHz, which can be boosted up to 2100 MHz, memory is running at 2525 MHz.
Being a oam module card, the AMD Radeon Instinct MI325X does not require any additional power connector, its power draw is rated at 1000 W maximum. This device has no display connectivity, as it is not designed to have monitors connected to it. Radeon Instinct MI325X is connected to the rest of the system using a PCI-Express 5.0 x16 interface.

The H200 SXM 141 GB is a professional graphics card by NVIDIA, launched on November 18th, 2024. Built on the 5 nm process, and based on the GH100 graphics processor, the card does not support DirectX. Since H200 SXM 141 GB does not support DirectX 11 or DirectX 12, it might not be able to run all the latest games. The GH100 graphics processor is a large chip with a die area of 814 mm² and 80,000 million transistors. It features 16896 shading units, 528 texture mapping units, and 24 ROPs. Also included are 528 tensor cores which help improve the speed of machine learning applications. NVIDIA has paired 141 GB HBM3e memory with the H200 SXM 141 GB, which are connected using a 5120-bit memory interface. The GPU is operating at a frequency of 1590 MHz, which can be boosted up to 1980 MHz, memory is running at 1313 MHz.
Being a sxm module card, the NVIDIA H200 SXM 141 GB draws power from an 8-pin EPS power connector, with power draw rated at 700 W maximum. This device has no display connectivity, as it is not designed to have monitors connected to it. H200 SXM 141 GB is connected to the rest of the system using a PCI-Express 5.0 x16 interface. The card measures 267 mm in length, 111 mm in width, and features a sxm module cooling solution.

Permalänk
Hedersmedlem
Skrivet av Mörksuggan:

Både ja och nej. Tar du en bild med en kamera som tar både jpeg och raw samtidigt, så kommer raw bilden se suddig ut. För den behöver bli behandlad i program efteråt. Men om du tar typ en bild med en Hasselblad mellanformatskamera på 100 MP och med 16 bitars och sedan komprimera den till 4% av ursprungliga bilden raw eller jpeg så blir det knappast en bra bild.

Det är dock inte jämförbart eftersom algoritmen fungerar genom att komprimera många snarlika texturer ("Typical PBR materials have 9-10 channels: 3x albedo, 3x normal, metalness, roughness, ambient occlusion, opacity") och extrahera likheterna mellan dem för att spara plats. Att komprimera en enstaka bild med bibehållen kvalitet är mycket svårare.

Ska du göra en analogi med Hasselblad-kameran så är kan vi istället kolla videokomprimering som är lite snarlikt. Där har du också många olika bildrutor som har mycket gemensamt, och arbetar för att inte lagra samma info flera gånger.
1.5 timme okomprimerad 4K-video (säg utan HDR eftersom det är mindre, så 8 bitar/kanal) tar upp c:a 3 TB vid 24 fps (c:a 570 MB/s), medan en komprimerad fil på 20 GB brukar anses ha rätt bra kvalitet (3.8 MB/s). Då är vi nere på omkring 0.6% av originalet. I UHD Bluray-format är det fortfarande max 100 GB (19 MB/s), så drygt 3% av originalet.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Gurgamel:

Som jag förstår det komprimerar algoritmen NTC olika texturversioner av samma PBR material (skadad lackyta, rostig etc), vilket gynnar scener med olika versioner av samma material men inte riktigt scener med en många olika typer av material men av samma kvalitet (laboratorium).

"Neural Texture Compression (NTC) is an algorithm designed to compress all PBR textures used for a single material together. It works best when the texture channels are correlated with each other, for example, detail in the albedo texture corresponds to detail in the normal texture. Up to 16 texture channels can be compressed into one NTC texture set. Typical PBR materials have 9-10 channels: 3x albedo, 3x normal, metalness, roughness, ambient occlusion, opacity."

Inte riktigt, varje material består av flera olika texturer som har olika funktioner. Man har t.ex. en textur med färg, en med normalvektorer, en som anger hur grov utan är, o.s.v. Vanligtvis är dessa texturer relaterade till varandra. Om du kollar på exemplet på Github så ser du t.ex. att samtliga texturer för det materialet har samma brickmönster.

Permalänk
Medlem
Skrivet av pt96hni:

Välkommen till Gnällclockers - Siten där vi gnäller på alla nyheter...

Om det inte vore för den här produktdifferentieringen skulle alla konsumentGPUer ha en version med 2x mer minne än vad de har idag. T.ex 5090 skulle lanserats med 64 GB. Den här minnesmängden är reservad för Quadrokort som kostar över 100 000 kronor. Dessutom har dessa kort ECC-minne.

Permalänk

Nu räcker det fan

Nee nu får dom fan ta o ge sig har dom tappat det helt eller?! Efter 50 seriens fiasko har jag bestämt mig för att köra amd istället för första gången på 15år då är de fan illa, så besviken på Nvidia. Blir ett 7900xt:)

Permalänk
Medlem

Nej nej nej, överkomprimerade texturer är inte vad vi behöver tillsammans med alla fejkpixlar och hitte-på frames. Snart finns ju inget kvar från "originalet". Känns som krävande spelgrafik har gått alltför snabbt fram när vi måste ta till alla dessa special lösningar får att ens får en bra framerate.