Nvidias svar på för lite videominne: Komprimerade texturer

Permalänk
Medlem
Skrivet av KalleKulspruta:

Jag skrev just det, att den tar mindre plats med DLSS på. Min undran var hur denna teknik funkar med DLSS av

Min poäng var att DLSS skalar upp den färdigrenderade bilden som ligger i framebuffern, så komprimeringen av texturer borde fungera detsamma oavsett om DLSS är på eller inte. Detta eftersom texturer behandlas under själva renderingen och inte efteråt, som med DLSS.

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | PG279Q | Windows XP/10 Dual-Boot |

Permalänk
Medlem

"Bildhastigheten i testet visar att komprimeringen sänker prestandan en aning med både DLSS och TAA vid 4K, men bara med DLSS vid 1440p. Med TAA och 1440p är den genomsnittliga bildhastigheten faktiskt högst med maximal komprimering."

Det här är ju oacceptabelt i spel, ok om det är en film som ska visas, men i spel vill man ju inte ha onödig fördröjning lag latens, då blir det mer eller mindre ospelbart.

Permalänk
Medlem
Skrivet av Knusen:

Det här är ju oacceptabelt i spel, ok om det är en film som ska visas, men i spel vill man ju inte ha onödig fördröjning lag latens, då blir det mer eller mindre ospelbart.

Alla settings i ett spel försämrar prestandan för att öka den visuella upplevelsen, eller andra hållet. För dig som kanske alltid spelar på lägsta möjliga settings med bäst latens är detta ointressant, men för oss som vill ha snyggare spel kan det vara det bra.

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Lussarn:

Alla settings i ett spel försämrar prestandan för att öka den visuella upplevelsen, eller andra hållet. För dig som kanske alltid spelar på lägsta möjliga settings med bäst latens är detta ointressant, men för oss som vill ha snyggare spel kan det vara det bra.

Då antar jag att du inte spelar något som kräver minsta reflexer typ äventyrs spel typ peka och klicka, då din bild ska "packas upp" innan den visas, det blir en fördröjning där. Nvidia är helt ute och cyklar när dom gör det här, motsatsen är självklart bättre - Mer minne och inte packade texturer.

Permalänk
Medlem
Skrivet av Swedishchef_90:

Ja fungerar just nu iaf på Intel och amd

Mjo, låt oss hoppas att det, så att säga, tillåts. Vad jag kan se i deras paper från maj 2023 om det så ser huvudargumentet ut att vara bättre kvalitet vid kompression helt enkelt, deras jämförelse är ju mot en helt komprimerad bild eller en som är komprimerad men som visar tydligt sämre kvalitet. Blir intressant att se vad faktiskt besparingarna är i rendering jämfört mot hur det faktiskt görs just nu.

Sedan vill jag inte ha mindre VRAM helt oavsett, jag vill ha mer, orelaterat till spelande, så just vrambesparing bryr jag mig inte så mycket om. Men, bra texturer är ju lite typ "gratis" bildkvalitet som inte drar mycket prestanda utöver att ladda delni tid, just därför det är frustrerande med grafikkort som har för lite VRAM.

En sak de nämner i sitt paper är att prestanda kostnaden till viss del kan döljas jpmses RT, alltså att man sänker prestandataket så pass med RT att prestandatappet för NTC inte kanske märks, på så vis kan man ju se det som att få ut så mycket som möjligt av den uppoffring man gör för att kunna köra RT.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av holo:

Behöver inte ens skicka med några assets alls för spelen, allt skapas av AI!

https://www.sweclockers.com/nyhet/39510-forskare-spelar-doom-...

Framtiden är redan här!

De spelar alltså inte spelet, utan skickar bara spelarens input till en ai-modell, spelet finns inte, ingen rendering, ingen logik

AIn har bara blivit tränad på doom-videos om jag minns rätt

Förresten, för klienten är ju det samma sak som Stadia eller andra spel-streaming-tjänster

Permalänk
Medlem
Skrivet av klotim:

Jag gissar på att det inte kommer finnas för alla spel utan bara dom som stödjer det. Vilket innebär att moddade spel med 4k texturer kommer fortfarande bottlenecka för de envisas att släppa 12/16gb kort.

det kommer nog komma patreon projekt där folk delar texturmoddar för spel som är optimerade.
folk delar redan remastered texturer för fallout o skyrim.

Permalänk
Medlem
Skrivet av Knusen:

Då antar jag att du inte spelar något som kräver minsta reflexer typ äventyrs spel typ peka och klicka, då din bild ska "packas upp" innan den visas, det blir en fördröjning där. Nvidia är helt ute och cyklar när dom gör det här, motsatsen är självklart bättre - Mer minne och inte packade texturer.

Jag har aldrig valt spel utefter vilken typ av textur-kompression som används?

Visa signatur

- 5090

Permalänk
Hedersmedlem
Skrivet av Knusen:

Då antar jag att du inte spelar något som kräver minsta reflexer typ äventyrs spel typ peka och klicka, då din bild ska "packas upp" innan den visas, det blir en fördröjning där. Nvidia är helt ute och cyklar när dom gör det här, motsatsen är självklart bättre - Mer minne och inte packade texturer.

Alltså, nja. I vissa fall minskade ju FPS:en, men i vissa fall ökade den (1440p/TAA fick 5.5% högre snitt-FPS i detta testet). 5.5% högre FPS innebär lägre fördröjning, så i vissa tester kan det bli lägre fördröjning med denna tekniken i dessa tidiga tester.

På samma sätt kan man ju säga att det blir en fördröjning av att använda DLSS -- men det är inte heller sant. Visst, det går snabbare att rendera en bild i 1080p och visa den direkt än att rendera i 1080p och skala upp till 4K, men det är inte så relevant om man sitter med en 4K-skärm. Då kör man nog hellre 4K med DLSS Performance trots att uppskalningen tar tid, eftersom det är enormt mycket snabbare än att rendera i 4K som är det man bör jämföra med.
Därmed får du högre FPS och lägre fördröjning med DLSS, trots att uppskalningen tar tid.

Samma princip gäller nästan allt som gör "extra beräkningar" och ger extra FPS, förutom frame generation som ökar latens pga att det måste köa bildrutor och beräkna mellanliggande bildrutor medan en färdig bildruta redan är klar och inte visats.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem

Det sjuka är att än idag ser första Crysis bättre ut än många utav dagens nya släpp. Dagens spel, många utav dem ser ut som utsmetat smör. Vet ej om detta är rätta vägen att gå än mer minne, men går man denna väg får devsen börja sluta lata och öka bild kvaliteten.

Permalänk
Medlem

Jag tycker det är skitcoolt. De behöver ju inte komprimera med 96% för att de kan komprimera med 96%. Väljer de att komprimera med kanske 85% får man fortfarande en hel del mer bandbredd och fritt videominne att jobba med utan någon påtaglig förlust i kvalitet.

Vill jag också ja mer VRAM? Ja. Är det bra att Nvidia erbjuder teknologi som låter spelutvecklare använda VRAM mer effektivt? Också ja.

Permalänk
Medlem
Skrivet av wly:

Vad har nvidia att göra med speloptimering? Skyll på utvecklarna och planned obsolesence.

Ganska mycket, man optimerar spelen mot Nvidia/AMD/Intel, konsoler eller Windows osv. Att Nvidia-sponsrade titlar fungerar bättre på deras kort handlar om optimering (och rimligen sub-optimering mot AMD...)

Men man måste jobba med Nvidia och AMD, kanske inte direkt, men Nvidia måste ge verktygen att utveckla mot deras plattformar åtminstone, om inte direkt handpåläggning. AMD, MS, Intel och Sony jobbar också med utvecklarna för att optimera spelen

Desto mer proprietär teknik och större skillnad i hur grafikkort genererar spelet desto svårare för utvecklare att göra ett bra jobb med optimeringen

Permalänk
Avstängd
Skrivet av Syglarn:

Ganska mycket, man optimerar spelen mot Nvidia/AMD/Intel, konsoler eller Windows osv. Att Nvidia-sponsrade titlar fungerar bättre på deras kort handlar om optimering (och rimligen sub-optimering mot AMD...)

Men man måste jobba med Nvidia och AMD, kanske inte direkt, men Nvidia måste ge verktygen att utveckla mot deras plattformar åtminstone, om inte direkt handpåläggning. AMD, MS, Intel och Sony jobbar också med utvecklarna för att optimera spelen

Desto mer proprietär teknik och större skillnad i hur grafikkort genererar spelet desto svårare för utvecklare att göra ett bra jobb med optimeringen

Du skämtar? Det är inte nvidia eller amds ansvar att optimera spel som de inte ens har något att göra med.
Dessutom outsourcas mycket inom kodande till billiga företag i indien och pakistan. Moderna spel kommer aldrig bli optimerade oavsett vad folk med 4090 säger. Det är ett minne blott.

Permalänk
Medlem
Skrivet av wly:

Du skämtar? Det är inte nvidia eller amds ansvar att optimera spel som de inte ens har något att göra med.
Dessutom outsourcas mycket inom kodande till billiga företag i indien och pakistan. Moderna spel kommer aldrig bli optimerade oavsett vad folk med 4090 säger. Det är ett minne blott.

Vad som händer är väl att de ger sin hårdvara till bolaget som optimerar och då får de fps efter sin utlånade hårdvara.

Sen, iaf med Starfield, var väl nvidia med och hjälpte till med folk för DLSS implementering

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem

Bra sätt för Nvidia att lägga över problemen på spelutvecklaren.
Användaren tycker att spelet har dålig grafik/bildkvalité och inputlag som resultat frame generation. Reducerad prestanda som resultat av långsam laddning av komprimerade texturer = användaren ger negativt omdöme för spelet.

Nvidia:

Permalänk
Medlem

vad är det för fel på alla i forumet hur kan man som nörd hata optimeringar o ny teknik.

Permalänk
Hedersmedlem
Skrivet av HEXB1T:

Reducerad prestanda som resultat av långsam laddning av komprimerade texturer = användaren ger negativt omdöme för spelet.

Om inte spelutvecklaren ser någon fördel med att använda tekniken så behöver de ju inte använda den?

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Mindfighter:

Vad teknikneggo ni är på ett teknikforum. Innan lzh, zip o.s.v. kom tog filer jättemycket plats, innan jpeg kom tog bilder jättemycket plats, innan mp3 kom tog musik jättemycket plats o.s.v. komprimering med bättre algoritmer är något bra, det är inte något dåligt.

Nä, vi är realistiska.
Det som grafikkortets minne används till är huvudsakligen texturer och de har redan viss komprimering. Så att lägga på ännu mer komprimering innebär antingen att att det är någon form av lossy komprimering eller att det tar beräkningskraft på annat sätt.
Finns inget som är gratis prestanda.

Permalänk
Medlem

Sluta gnäll! Helt otroligt vad alla är griniga i det här forumet faktiskt! Bra med innovation istället för att bara satsa på RAW-prestanda!

AI-driven texturkomprimering som kan spara upp till 7x VRAM?? Det här är kanske den största grejen inom texturkompression sen S3TC (aka DXTC) från 90-talet, som i princip alla spel har använt sen dess.

Skillnaden? Istället för att hårdkoda in blockkomprimering som BC7 gör, så låter NTC ett neuralt nätverk återskapa detaljerna vid rendering. Det betyder att man kan ha mycket mer detaljerade texturer utan att VRAM fylls upp direkt.

12GB räcker inte i spel?? Om det här blir standard så kanske vi inte ens behöver mer VRAM – vi behöver bara använda det smartare.

Permalänk
Medlem
Skrivet av Hellspawned:

Nä, vi är realistiska.
Det som grafikkortets minne används till är huvudsakligen texturer och de har redan viss komprimering. Så att lägga på ännu mer komprimering innebär antingen att att det är någon form av lossy komprimering eller att det tar beräkningskraft på annat sätt.
Finns inget som är gratis prestanda.

Mjo, poängen verkar väl vara att det är bättre komprimering helt enkelt, att man med tränade modeller kan återskapa mer detaljer till lägre prestandatapp. Sedan hur bra det faktiskt ser ut får vi se.

Skrivet av dblade:

Sluta gnäll! Helt otroligt vad alla är griniga i det här forumet faktiskt! Bra med innovation istället för att bara satsa på RAW-prestanda!

AI-driven texturkomprimering som kan spara upp till 7x VRAM?? Det här är kanske den största grejen inom texturkompression sen S3TC (aka DXTC) från 90-talet, som i princip alla spel har använt sen dess.

Skillnaden? Istället för att hårdkoda in blockkomprimering som BC7 gör, så låter NTC ett neuralt nätverk återskapa detaljerna vid rendering. Det betyder att man kan ha mycket mer detaljerade texturer utan att VRAM fylls upp direkt.

12GB räcker inte i spel?? Om det här blir standard så kanske vi inte ens behöver mer VRAM – vi behöver bara använda det smartare.

Detta är ändå Sweclockers, när jag hittade hit när jag var liten handlade om hårdvara och överklockning, det är tråkigt att de faktorerna blir mindre och mindre relevanta och att alla handlar mer bara om att köpa den generation som stöder de olika nya AI-drivna trick som motiverar att allt blir dyrare.

Just denna teknologi verkar ju intressant om nvidia inte försöker någon walled-garden strategi med den.

Sedan undrar jag lite varför Nvidia är så fast bestämda vid att hålla mängden VRAM låg, själv kommer jag vilja ha mer oavsett för annat än spel så är lite besvikelse.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem

Det är bara Nvidia som vill sälja mer luft för pengarna. Snart återlanserar de TNT2 med superkomprimering och DLSS12 och säljer mellanstegsmodellen för 36000:-. Den genererar 1 bild i minuten men med dess fantastiska AI-algoritm så får vi 480fps med bara 99,99957% artefakter.

Visa signatur

R&D Elektronik & Radioingenjör

Permalänk
Moderator
Testpilot

Klassiskt fall av att skapa ett problem som man sedan löser med en låst teknik.

Hade detta istället varit något som Nvidia arbetat på som öppen teknik så hade det varit mycket mer intressant men just nu så skapar Nvidia ett problem genom att snåla med grafikminne och presenterar en lösning på detta genom just denna komprimeringsteknik. Tekniken som sådan är ju högintressant för säkert många fler användningsområden men inte för att låta Nvidia kunna produktsegmentera med upselling.

Problemet blir ju också att konsollerna bygger på AMD-teknik så om man ska spelutveckla så blir denna funktionen inte helt kalas då man ändå måste ta RDNA i beaktning för att fungera på konsollerna. Olikt DLSS som är mer av en "extra feature" byggt ovanpå existerande funktioner i spelmotorn. Låter komplicerat för spelutvecklarna.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Moderator
Testpilot
Skrivet av Siimuliize:

Det sjuka är att än idag ser första Crysis bättre ut än många utav dagens nya släpp. Dagens spel, många utav dem ser ut som utsmetat smör. Vet ej om detta är rätta vägen att gå än mer minne, men går man denna väg får devsen börja sluta lata och öka bild kvaliteten.

Nja nu har du nog lite rosenskimrande minnen av Crysis.

Crysis

Doom Eternal

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Du kan väl åtminstone köra med en screenshot från originalet, istället för Remastern som är röv. 😛

Sedan är ju bättre lite subjektivt. Crysis gick in på så hyperrealistisk grafik som möjligt, medan Doom Eternal är ett stiliserat spel. 😉

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | PG279Q | Windows XP/10 Dual-Boot |

Permalänk
Medlem

Well, sas ju "de flesta", inte "alla".

Jag skulle säga att en del nya spel som kommer ut är sjukt snygga, men att redan runt Crysis 2 så skiftade grafiskt design i "snygga" spel mer mot att få en adekvat helhet sålänge man inte tittar närmare på något specifikt, och så är det mer än någonsin idag. De snygga spelen är inte lika ofta passion projects utan liksom massproducerade halvfabrikat, och framförallt de nyare AI funktionerna känns som att de mest underlättar den sortens design, där man siktar på grafik som ser snygg ut på samma halvbakade sätt som de flesta andra spel.

Givetvis är doom en utstickare, det om något känns ju som en spelserie som vägrar kompromissa fortfarande.

Det dyker fortfarande upp spel som har verkligt eget designspråk och känsla, men inte längre så att spelen för 700kr som har som påstådd USP att grafiken är next gen nödvändigtvis känns som att de gör något bättre än någon annan. Det är bara en massa olika smaker av UE med en halvdassig native TAA och visuell komposition som känns byggd rakt av för DLSS typ.

Skrivet av Alexraptor:

Du kan väl åtminstone köra med en screenshot från originalet, istället för Remastern som är röv. 😛
<Uppladdad bildlänk>

Sedan är ju bättre lite subjektivt. Crysis gick in på så hyperrealistisk grafik som möjligt, medan Doom Eternal är ett stiliserat spel. 😉

Alltså, Crysis höll tronen i många år men inte längre.
Däremot är det alltid intressant att gå tillbaka och se hur mycket som lunda åstadkommas med så lite, jämfört med nu.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem

Sluta med grafikkort och släpp en APU plattform med 8 minneskanaler istället.
Vem vill ha stora, tunga och sviktande kort med felorienterade fläktar samt många felorienterade chassifläktar?
Det ska räcka med en eller 2 rätt orienterade fläktar.

Permalänk
Medlem
Skrivet av molcos:

2025, året där bildkvaliteten bara blev sämre och sämre hela tiden, samtidigt som grafikkorten bara blev dyrare och dyrare.

Jag förbereder mig för att köpa ett begagnat grafikkort snart. Vilken modell tycker du är den sista som var genuint bra? Nåt mellan 2019 till idag? Kan nog inte lägga mer än 2500 kr.

Visa signatur

CPU: AMD Ryzen 5 5600X 3.7GHz
MOBO: MSI B550 Gaming+
RAM: Corsair DDR4-3200/PC4-25600 1600MHz 16Gb
GPU: AMD Sapphire Radeon R9 290 4Gb + 2 st 120mm Noctua-fläktar
MONITOR: Dell U2414H 24" - HD: Kingston A2000 - PSU: Seasonic Focus GX 650W - CHASSIS: Fractal Design Focus G

Permalänk
Hedersmedlem
Skrivet av Arnkell:

Jag förbereder mig för att köpa ett begagnat grafikkort snart. Vilken modell tycker du är den sista som var genuint bra? Nåt mellan 2019 till idag? Kan nog inte lägga mer än 2500 kr.

Det är inget fel på de nya korten utöver priserna, och kanske VRAM-brist då, men det kommer du i regel inte runt av att köpa äldre kort.

Ja, och kanske utöver 12VHPWR/12V-2x6-strulet då förstås... men det är inte relevant om man ska lägga 2500 kr.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av kelthar:

Någon som sa att det är första generationen kort där vi får det som blir över. Andrahandssorteringen.

Vadå blir över? Du menar att mer produktionskapacitet går till andra chip?

Permalänk
Medlem
Skrivet av ipac:

Vadå blir över? Du menar att mer produktionskapacitet går till andra chip?

Beräkningskort till AI-prylar m.m. till datacenter/enterprise är väl prio hela tiden nu... det som inte duger kan bli grafikkort, typ.

De får massor mer betalt för samma mängd kisel till det ena, så det är väl enkel matematik vad de ska prioritera.

Visa signatur

Desktop spel m.m.: Ryzen 9800X3D || MSI X870 Tomahawk Wifi || MSI Ventus 3x 5080 || Gskill FlareX 6000 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Arbetsstation: Ryzen 7945HX || Minisforum BD790i || Asus Proart 4070 Ti Super || Kingston Fury Impact 5600 65 GB || WD SN850 2TB || Samsung 990 Pro 2TB || Fractal Ridge
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304