Inlägg

Inlägg som houze har skrivit i forumet
Av houze

Var först att bryta trenden med släta frontpaneler och I/O-paneler på ovansidan av chassit. Ta fram modeller med I/O på framsidan eller ännu bättre, modulärt så man kan flytta I/O till valfri sida av fronten eller på fronten.

Och som tidigare påpekats, uppdaterade 304/804 med ännu mer fokus på NAS.

Av houze

Chassi med front/sido-monterad IO-panel

Hej,

Letar efter ett chassi med I/O-panel på framsidan eller på vänstersidan av chassit och undrar om någon har tips på modeller med detta?

Bakgrund:
Har ett gammalt skrivbord från förra seklets början, inget märkvärdigt (Knut Knutsson skulle ej bemöda sig) men jag gillar det, är dock för litet (0,78*1,47 Franska meter) för att rymma centralenhet och dubbla data-TV så jag har placerat hårddisken till höger i en bokhylla som löper längs skrivbordets gavel. Skrivbordet har tvenne hurtsar beläget på varsin sida av dataoperatören så någon golvstående modell av datamaskin får ej plats och icke monteringsanordning för skrivbord så som IKEA CPU-hållare eller dylikt.
Till dagens datum har jag ännu en Antec P280 (ersatte ett P180 2012) placerat i bokhyllan till höger men det har fått prestandaproblem med dagens programvaror samt underhållning och inga uppdaterade fastprogramvara offentliggjörs från utomsocknes aktörer såsom Intel, Gigabyte, Samsung, Asus, Western Digital, Corsair eller Creative vilket kan skapa obehag så jag har planerat att inköpa en nyare datamaskin.
Monteringsplats för tänkta framtida ADB-maskin är så den ej ska överstiga utrymme om BxHxD om 44x52x61cm.

Övriga saker:
Plats med moderkort storlek ATX.
Tyst/ljuddämpande
Lätt rengjorda dammfilter.
Monteringsanordning av 2 st 3.5" hårddiskar
Monteringsanordning av 2 st 2.5" SSD
Anslutning av USB-C

Har enbart hittat två modeller som är relativt nära:

Corsair Carbide Air 540
Omdömme:
+ Bra storlek.
+ Fyller de flesta kraven.
+ Verkar ha bra kyling för en AIO och +200W grafik.
~ Ok pris.
- Saknar USB-C.
- Tveksamma dammfilter.
- Gammalt chassi.

In-Win 309
+Lättåtkomlig I/O-panel.
+USB-C.
+Plats för allt jag behöver.
- Tveksamma dammfilter.
- Onödiga gimmicks som display på framsidan och glaspanel.
- Minst ett lakan för dyrt.

Har inte undersökt ovanstående chassin i detalj så jag kanske har fel, rätta mig gärna om mina bedömningar är felaktiga!

Jag måste givetvis ha missat något så jag söker hjälp att hitta ett chassi, har du något förslag?

Av houze
Skrivet av Usling:

Artikeln avslutas med att kylare med två fläktar är nytänkande. !? Såna har funnits i 15 år!

Vilka produkter har under de senaste 15 åren haft en en push-pull konfiguration likt 3080/3090? För mig var det helt nytt och nytänkande.

Skrivet av ottoblom:

Tror dom största köparna av 7nm gått över till 5 nm vilket gör att det finns fler 7nm Wafer att få tag på .Tror tillgången på 7NM är extrem faktiskt då företag som Apple köpt riktigt stora mängder .

TSMC hade ju kapacitetsbrist på 7nm för bara några månader sedan, även när de slängde ut HiSilicon så tog AMD direkt de resurserna. Med nya spelkonsoler, Zen 3, RDNA 2 och massor av andra tillverkare (t.ex Qualcomm, MediaTek, Broadcom) som vill öka produktionen så lär det väl dröja en bra bit in på 2021 innan det finns kapacitet över på 7nm.
Finns ju risk att det blir brist på Zen 3 eller RDNA2 för AMD beroende på hur de prioriterat tillverkningen under sommaren/hösten, antar de började tillverka Xbox/PS-kretsarna i början av sommaren men det behövs ju miljontals av dem inför lanseringen så det har nog tagit rätt så mycket kapacitet.

Av houze
Skrivet av kelthar:

2021-01-04:
https://www.inet.se/kategori/167/geforce-gtx-rtx?filters=%7B%...

Gissar att det är vad deras ÅF sagt till dem.

Skrivet av Xinpei:

Gör det? Är det därför Inet, Webhallen etc. menar att de dyker upp först i början av nästa år? På tal om att komma med fakta?

Är det inte bara placeholder datum för de inte har några exakta datum för leverans?

Av houze
Skrivet av Lordsqueak:

Ang, Värmen. Problemet är nog inte att värmen räknas globalt sett, utan att värmen släpps ut lokalt där servrarna står. Lokalt sett så blir det ganska mycket värme på en liten yta, och till skillnad från utsläpp i luften så kommer värmen inte flyga upp i atmosfären. Lokalt sett så kommer det bli en varmvattenström som går uppåt från servrarna, vilket i sin tur kan ändra vattenflödet lokalt sett. Vattenliv är ganska känsligt för temperaturförändringar, så förutom att det kan slå ut marinlivet lokalt, så kan det också ge invasiva djur en språngbräda.
Mao, inget man vill placera vid en känslig kust, för även om man skiter i miljön så kan det bli problem med Greenpeace et al.
Just i det här fallet så lär det inte varit någon större påverkan, men om dom börjar placera ut dussintals av dessa på samma plats så lär det ju göra skillnad.

Det vore ju intressant att se vad som skulle hända med en sjö.

Som jag skrev innan, har ingen info om effekt för Microsofts test men jag tror 500-1000kW vilket motsvarar 20-100 bilmotorer vid valfritt trafikljus, inte en chans att det skulle slå ut någon marin biotop lokalt i valfri havsklimat men kanske skapa någon form av mikroklimat där lite alger, fiskar och snäckdjur växer några procent snabbare inom några meter eftersom de enorma vattenmängder som passerar med normala väderfenomen och vattenströmmar i havet gör detta till en piss i nilen. I en mindre sjö (vi pratar hundra meter) så kan det säkert ha lite mer påverkan men där borde invasiva arter vara minimalt såvida ingen spolar ut enormt många extremt aggressiva fiskar som trivs i 5 graders vatten och kan slå ut den inhemska faunan som under tiotusentals års evolution hanterat 4 graders temperaturer i frusna sjöar. Det enda som händer är förmodligen att man förkortar säsongen för ishockey och pimpelfiske på sjöisen medans man får bättre möjligheter för vinterbad i öppna isvakar.

Vill du oroade dig för värme så är solens strålningseffekt med hjälp av växthuseffekten ett antal miljarder (eller mer, orkar inte räkna) gånger högre än Microsofts tub av datamaskiner, även om Microsoft skulle placera dessa med 5 meters mellanrum över hela jordklotet så skulle de inte slå solen, medans 1% ökad energistrålning från växthuseffekt (man kan se detta som en återvinning av energi med lite vilja och en rejäl skopa idioti) så kan man förmodligen bara täcka jordens yta med en Raspberry Pie varje decimeter för samma värmeutveckling. Alla jämförelser och siffror är killgissade men det jag vill få fram är att det är naivt att tro att några nersänkbara datacenter skulle ha någon som helst påverkan på klimat globalt eller lokalt. När Microsofts havsbaserade compute-moduler sammanlagt närmare sig 1% av Sveriges stålindustris utsläpp i värme men framförallt koldioxid så kan vi börja fundera på om vi skulle sluta använda stål, köra bil eller minska de två med några kilometer om året för att Office 365 ska fungera.

Av houze

Den artikeln innehåller nog best-case scenario, en redan befintlig anläggning som kan utnyttja lågvärdig energi, i detta fall en pelletstork som annars stått still under vinterhalvåret, väldigt få i världen där en så bra möjlighet presenterar sig.

Finns fler exempel framförallt från de senaste 3 åren där det byggts datacenter där man återvinner spillvärme men det är komplext och dyrt för många användningsområden, för t.ex. fjärrvärme så behövs massiva värmepumpar som kostar att köpa in och drifta eftersom även de drar el och kräver en del underhåll.
Men söker man på nätet så finns det flertalet artiklar de senaste åren så hittar man rätt många exempel i norden där datacenter ska börja återvinna spillvärmen men väldigt få från sydligare länder och jag har sett väldigt få artiklar om kostnader och effektivitet än så länge så därför jag är skeptisk till att det alltid är en bra idé.

Skrivet av inkui:

Alla ni som snackar hållbarhet osv. Microsoft är väl ett, av få, företag som är (Snart? Minns inte) helt klimatneutrala? Tänker att det här inte är ett undantag.

Nu är väl att värma upp havsvatten kanske den värsta varianten av energislöseri men Microsoft har vad jag förstått även investerat i vindkraftverk för att driva dessa datacenter så på det viset blir de ju nästan klimatneutrala om man räknar bort alla resurser som går åt till att bygga vindkraftverk. Men ja, Microsoft är en av de ledande i branschen när det gäller omställning till klimatneutralitet.

Skrivet av hasseb64:

Klar besvikelse att se all dessa fläktar, hade trott att man varit mera innovativ med värmeledning mot ytterskalet, projektet känns dock vansinnigt "meckigt" och säkerligen en kalkyl som aldrig lär gå ihop

Jag tror andra typer av värmeledning kan vara för komplext, dyrt och osäkert, fläktarna i dagens servrar håller i princip serverns livslängd ut och är väldigt billiga. Men jag kollade igenom några bilder nu och ser att det verkar finnas någon typ av rör så det kan vara så att man har någon form av vattenkylning ändå och sedan reglerar temperaturen med vattenflöde plus fläktar.
Hade varit intressant att få tag i lite mer teknisk info om hur det fungerar.

https://3er1viui9wo30pkxh1v2nh4w-wpengine.netdna-ssl.com/wp-cont...

Håller med om att projektet känns rätt komplicerat, men med tanke på hur många miljoner man får spendera på normala kylanläggningar och deras driftunderhåll så måste det finnas någon fördel med detta, annars hade inte Microsoft fortsatt sina tester med projektet.

Skrivet av Extremaz:

Noobfråga här:

Är allt som behövs en elkabel in från vindkraft för att driva den? Är den annars uppkopplad till satellit eller drar de en fiberkabel till den också?

Radiovågor (till Satellit, WiFi, Ra145 och andra saker) fungerar väldigt dåligt under vatten så det är fiberkablar som gäller, men eftersom det ändå behövs ström så kan man bunta ihop lite strömkablar och fibrer för inkoppling innan man sänker ner "datacenter-ubåten". Behövs förmodligen inga längre kablar heller, några hundra meter från kusten kan man hitta tillräckliga djup som inte påverkas i för stor grad av havsströmmar (vore jobbigt om datacentret följer med golfströmmen och hamnar utanför Island )

Skrivet av Bmannu:

Till alla som spekulerar om spillvärme..

Det finns redan svenska exempel (bahnhof) på företag som vill donera spillvärmen från sina serverhallar till närliggande byggen. Helt gratis.
Problemet är att ingen vill betala för transporten eller infrastrukturen för något dylikt. Det skulle vara enormt mycket dyrare att ta vara på någon enstaka MWh från havsbotten...

Sedan så får man ju sätta lite perspektiv på saker.
Om man tror att ett datacenter skulle påverka temperaturen på havet så är ju det fullständigt vansinne.
Det kräver ca 1.16 kWh för att höja temperaturen på 1 kubikmeter vatten med 1 grad C.
Ett datacenter kanske alstrar 1 MWh värme i full fräs.
Havet innehåller 1^12 kubikKILOmeter vatten
Det är så lite värme sett till storleken att det är löjligt.

Bahnhof är inte det enda exemplet, ett företag här i Växjö byggde ett väldigt litet datacenter (typ 250-500kw) och frågade det kommunala energibolaget om de ville ha spillvärmen, energibolaget ville absolut inte ta hand om sådan "skräp-värme" men vill gärna sälja fjärrkyla, slutade med att företagen byggde några kyltorn för att dumpa ut värmen för det var billigare.

Hittar ingen info om hur mycket ström de matade "datacenter-ubåten" med men av storleken att döma så är väl 500-1000kW kanske rimligt så 500-1000 kubikmeter vatten som är en grad varmare kanske kan skapa någon form av mikroklimat. Någon marinbiolog på Sweclockers får gärna fylla i med fakta utanför mina killgissningar.

Skrivet av Fade:

Byråkrati bakom som stoppar detta, företaget med datahallen måste vara registrerat som ett energi företag (eller något liknande). Däremot kan man göra lokala överenskommelser företag emellan och låta spillvärmen värma upp någon enstaka byggnad. Men tror inte de får använda de vanliga kommunala näten till detta.

Var många år sedan jag fick det förklarat för mig så lite kan ju ha ändrats.

Jag tror inte byråkratin stoppar, men det kan komplicera dessa saker helt klart. Som du säger så kan bolagsregistrering sätta käppar i hjulen och kanske även konkurrenslagstiftningar då många energibolag är kommunalt ägda. Ett datacenter kan ju ge bort spillvärmen till ett energibolag förutsatt att energibolaget står för infrastrukturen att konvertera och transportera värmeenergin, datacentret kan då få billigare kostnad på kylanläggningar och en USP för sina "klimatåtgärder" medans energibolaget får gratis energi, men investeringskostnaderna för energibolaget kan bli rätt kostsamma och med tanke på hur datacenter utvecklats de senaste 15 åren så kan sådana investeringar bli kostsamma om datacentret inte ens finns kvar om 10 år så det finns nog en viss tveksamhet från energibolagens sida gällande långsiktigheten i investeringar.

Sen så gör de företag som tillhandahåller datacenter väldigt mycket för att förbättra sina verksamheter och nå klimatmål eftersom det är ett säljargument till deras kunder och i sin tur kundernas kunder men det finns gränser för vad slutkunden vill betala. T.ex. Interxion som är en av de större i Europa för datacenter så köper de numera in enbart klimatneutral el men när det kommer till spillvärmen så är det högt och lågt, ett av deras senaste byggen STO6 så samverkar de med energibolag för att konvertera spillvärme till Stockholms fjärrvärmenät, i danska CPH1 så pumpar de delvis ner värmen i marken för att omkringliggande bergvärme ska kunna dra nytta av det (väldigt skeptiskt till denna metod men jag är inte geolog eller bergvärmeexpert så det kanske finns någon som kan utveckla om detta fungerar) medans vad jag vet i Spanien för t.ex. BA1 eller MAD2 så skickar man all spillvärme rakt ut i luften eftersom få behöver extra värme i Barcelona och Madrid.

Det sista exemplet med BA1 och MAD2 är nog bra exempel där Microsofts lösning kan vara mer kostnadseffektiv när yttemperaturen stiger så behövs mer avancerade kylanläggningar, tänk att du har 45-gradig luft ut från servrarna som du ska kyla med 40-gradig utomhusluft för att nå 25-gradig kylluft.

Av houze
Skrivet av Mickesven:

måste ju vara något ofantligt mycket bättre att använda spillvärmen till att värma upp bostäder eller andra lokaler?

Tyvärr väldigt svårt att ta till vara på energin, behövs i princip en separat infrastruktur för det, går t.ex. inte att koppla in på fjärrvärmenät då dessa har matartemperatur mellan 60-110 grader medans kylvatten från ett datacenter håller kanske 30-40 grader, går inte heller att ansluta på fjärrvärmereturen för den oftast är 25-40 grader så det inte skulle kyla något.
Därmed inte sagt att det är bra med många nuvarande datacenter som bara pumpar ut värmen och det finns exempel på där de iallafall delvis kunnat använda spillvärmen men det är inte lätt att få till ekonomiskt.

Skrivet av hakro807:

En mycket stor del av världens befolkning bor i områden där extra värme knappast är något som man önskar sig. Att kyla servar placerade i Kiruna och använda spillvärmen är kanske ingen tuff uppgift, men hur effektiv är en AC när vi talar om 50 grader i solen och 30 i skuggan som är det normala i exempelvis Mumbai. Ett hav som pendlar omkring 30 grader kan då vara en mycket mer attraktiv lösning.

Ja, även på sommaren i Sverige kan det vara för varmt ibland, men framförallt är det som du skriver mest intressant i tropiska områden där havstemperaturen håller sig ganska jämt över året och oftast betydligt under lufttemperaturen.

Av houze

Verkligen kul med denna och föregående artikel som ger oss oinsatta lite inblick i hur dessa saker fungerar. Tack Thomas.

Av houze

Tidigare artikel anger bara Huawei i blockaden som då ska träda i kraft den 15:e september, i så fall borde det ha en väldigt begränsad impact på några veckor.
Men kommer det mer blockader kan nog minnespriserna åka lite berg-o-dalbana under hösten men med Kina blockerat borde det bli en rejäl överkapacitet på minnen efter ett tag och prisfall.

Av houze
Skrivet av Yoshman:

På serversidan ser man indikation på att AMD är fullt medveten om hur viktig prestanda per kärna är. För Zen3 kommer man därför långt mer satsa på 32 kärnor och färre i form av att skruva upp absolut prestanda per kärna. Modellerna med fler kärnor kommer optimeras primärt för perf/W då väldigt få utanför HPC har någon nytta av de modellerna idag, för HPC är perf/W det kritiska då man är kapabel att skala till tusentals kärnor.

Det har väl redan påbörjas i våras med EPYC 7Fxx-CPU:erna där de vred upp frekvenserna rätt mycket, får hoppas det kommer från start med nästa generation för en av svagheterna med EPYC har varit de låga frekvenserna även om det inte varit något jätteproblem. Scenarion som license per core eller applikationer som skalar dåligt så är höga klockfrekvenser och prestanda per core att föredra.
Sen är ju TDP ett problem också, det är inte alla bladservrar som klarar av att kyla 2*250W CPU:er så det blir en avvägning om man vill t.ex. köra 1U-servrar med många CPU-kärnor eller blad med mindre antal kärnor. Vattenkylda blad är en lösning men det kräver infrastruktur som oftast inte finns på t.ex. co-location.

Av houze
Skrivet av Gruarn:

Har det inte pratats om CCX med 8 kärnor? 10 kärnor skulle i så fall kunna vara ett chip med 3+3 kärnor avstängda.

Jo, det är högst troligt CCX med 8 kärnor, dock kommer det nog bara vara en CCX per chip, så detta är två chip med 3+3 kärnor avstängda eller 5+5 kärnor aktiverade beroende på hur man ser det, tidigare version har ju bara haft 4 cores/CCX så det inte funnits någon balanserad kombo för att få 10 kärnor.
Känns även möjligt att det kan komma en modell med 14 kärnor (7+7).

Av houze
Skrivet av Commander:

Skulle vara intressant att se vad för filsystem de körde testen på, antar EXT4 men men.
En sak jag inte riktigt förstår.

Är tanken att grafikkortet preloadar data till en NVME enhet för att cacha data. Eller att den kan läsa en NVME enhet med befintligt filsystem utan att behöva köra via CPU?

Om GPUn har direkt access till ett befintligt filsystem, vad händer med ACL och rättigheter överlag?. Känns att om den får R/W möjligheter under Root eller liknande som ganska stort säkerhetshål.

Hm

Vilket fall blir detta en feature set så lär detta säkert bli en extension i Vulkan, OpenGL, DirectX mm som enkelt kan fallbacka på tidigare sätt att hämta data. Lär bli en big win för att ladda texturer iaf.

Det handlar om att skicka data till GPU direkt, inte att GPU kontrollerar SSD eller filsystem vilket skulle vara mycket komplicerat som du säger med ACL och annat.

Nerdummat exempel för jag förstår inte bättre och kan inte förklara bättre...

Som det är idag.

Spelet exekveras i CPU, behöver skicka textur 3,5,14 och 54 till GPU-minnet.
1. Gör en fopen(texture.file) detta steg kan vi nog hoppa över för den håller förmodligen filen redan öppen men är där ACL och annat kontrolleras.
2a. Filesystemet talar om vilka diskblock som filen har
Läser in de block där textur 3 lagrats i filen in i RAM.
2b. Avkomprimera datan i CPU.
3. Skicka datan till grafikkortet.
4. Återupprepa steg 2-3 för textur 5
5. Återupprepa steg 2-3 för textur 14
5. Återupprepa steg 2-3 för textur 54

Med DirectStorage så blir det
1. Gör en fopen(texture.file) detta steg kan vi nog hoppa över för den håller förmodligen filen redan öppen men är där ACL och annat kontrolleras.
2a. Filesystemet talar om vilka diskblock som filen har
2b. Säg till SSD att skicka diskblock som innehåller textur 3,5,14 och 54 parallellt till GPU (osäker här, kan vara att kommandona skicka till GPU med vilka diskblock den ska hämta).
3. GPU avkomprimerar data för textur 3,5,14 och 54 parallellt.

Prestandan fås genom färre steg samt ökad parallelism.

Detta fungera ju dock inte om man t.ex. krypterar filsystemet med något som kräver CPU för att avkryptera det, t.ex. Veracrypt. Bitlocker fungerar om det använder hårdvarukryptering i SSD-kontrollern men det har mig veterligen varit lite si och så med den saken förut så jag är lite frågande hur det fungerar i dagsläget.
Komprimerat filsystem borde också ställa till det misstänker jag, vet inte hur många som aktiverar NTFS compression på sin Steam-katalog men jag brukar göra det för att spara några procent, antar jag får sluta med det.

Av houze
Skrivet av johanandersson:

Framtiden kanske blir en NVME plats direkt på grafikkortet för texturer? Låta spelet köras på processorn och vara installerat på systemhårdisken som vanligt men låta grafikkortet ha full kontroll över en separat NVME enbart fylld med texturer.
Det tycker jag låter ganska futuristiskt och man slipper köra fullt med grejer genom sydbryggan.

Det vinner man knappt inget på, med DirectStorage så skickas datan redan direct från SSD till grafikkort via PCIe-kontrollern, att implementera en PCIe-kontroller på grafikkortet för att ansluta en SSD är att gå över ån efter vatten.
Visst, kör du NVMe på de PCIe som finns på sydbryggan går det kanske vinna någon microsekund i latency men det uppväger knappast kostnanden.

Skrivet av Infiniti:

Utvecklarna kommer nog inte rusa för att utnyttja detta i spel på PC med tanke på hur många som sitter på SATA SSD eller till och med HDD. Rena konsolspel kommer kunna utnyttja detta mycket tydligare. Som Ratchet and Clank på PS5.

Jag är nog mer optimistisk till att det kan går relativt snabbt, utvecklarna utvecklar redan för tekniken på konsolerna så när DirectStorage blir tillgängligt på Windows så går det enklare att porta spelen. Är det så att man inte har NVMe så kommer ju API't falla tillbaka på nuvarande metoder att hämta data och spelet fungera men med längre laddtider, stuttering och när det blir riktigt jobbigt bildspel ala Powerpoint. Systemkraven kommer för sådana spel ha NVMe som "recommended" likt hur idag det är rekommenderat t.ex. 8GB grafikminne men det går att starta det med 2GB men man får betydligt sämre upplevelse då.

Skrivet av Sveklockarn:

@Infiniti: Valfri SATA-SSD är typiskt ca 100 ggr snabbare än en hårddisk på det som spelar roll för att kunna strömma in resurser i spel, tiden det tar att hitta ett enskilt datablock och accessa det.

Med DirectStorage så kommer man inte strömma in resurser som idag vilket sker relativt sekventiellt och kräver CPU-resurser så det går långsamt även med snabba SSD:er, med DirectStorage kan man låta spel ladda om hela världar på bara några bildrutor så det öppnar för helt nya typer av spel.

Av houze
Skrivet av granshagen99:

Väldigt intressant, bara längtat till och höra mer om detta på PC sidan sen jag först hörde om de från konsolerna och sen läste någon artikel om direct storage, men som någon nämnde över så funkar ju detta på Xbox som inte har något från nvidia men vad tror ni kommer behövas eller så om man inte har ett 3000 series kort? Tror ni det är en del till rdna2 som används i Xbox eller har de något med processorn i Xbox och göra eller något annat?

Jag har för mig jag läst något om att de använder 2 kärnor av processorn eller något och de är möjligt pga av att de komprimeras annars skulle de ta upp alla kärnorna på konsolen.

Eftersom RDNA2 används i Xbox och DirectStorage är en kommande funktion för DirectX så är det högst troligt att RDNA2-baserade kort som släpps senare i höst kommer få stöd för det. Det är dessutom inte så hårdvaruberoende utan det mesta är implementation i drivrutiner om jag förstått rätt så det är inte omöjligt att äldre generationer grafikkort också kommer stödja detta.

Andrew Burns på Nvidia skriver att RTX IO kommer stödjas på Turing och Ampere som kommentar i detta blog-inlägg:
https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelera...

"Hi. RTX IO is supported on all GeForce RTX Turing and NVIDIA Ampere-architecture GPUs."

Så sitter du med ett 2000-kort idag och NVMe disk så bör detta fungera när det väl kommer spel som använder tekniken, men är inget du behöver idag för spelen lär inte dyka upp inom de närmsta 12 månaderna (vild gissning från min sida).

Av houze
Skrivet av Yoshman:

Ja, det kommer även fungera på PCIe 2.0.

Flaskhalsen för RTX-IO lär knappast bli mot GPU, om något kommer det vara diskarna som är flaskhals. Om diskarna visar sig bli flaskhals är en kortsiktig lösning RAID-0.

RTX IO verkar vara namnet Nvidia valt på deras teknik att stödja DirectStorage. Som du säger lär den fungera även PCIe 2.0. Är lite fundersam på vilka scenarion bandbredd på t.ex. PCIe 3.0 för 4x NVMe SSD skulle vara ett problem, även en sådan enhet skulle ju kunna fylla minnet på ett grafikkort på en sekund och jag har svårt att tänka mig att man behöver ladda in så mycket data under en aktiv spelsession.

Om jag förstått rätt så ska RTX IO även fungera på Turing eftersom 2000-serien har tillräcklig kapacitet för att hantera det så även förra årets gamer-pc kan dra nytta av detta när det väl implementeras i spel.

Skrivet av Ratatosk:

Från din första länk.
"We’re targeting getting a development preview of DirectStorage into the hands of game developers next year."
Att Konsolllerna använder en liknande teknik, bör påskynda införandet, men nästa höst, i bästa fall, är min gissning.

Du har rätt, min teflonhjärna har redan glömt vad den läste igår. Så det var ju bra att jag fick med länkarna. Nästa höst kan vara optimistiskt men vi får väl hoppas.

Av houze
Skrivet av Novdid:

Kan någon kunnig förklara för mig om denna Direct Storage implementering (Nvidia IO) fungerar med PCIe 3.0? Om en bra NVMe disk med läs och skriv över 3GB/s kan accelereras till GPU på samma sätt?

Borde väl fungera?

Skrivet av Sienar:

Undrar jag med. Har PCI 4 men PCI 3 nvme.

Väldigt enkel sammanfattning, postar länkar för mer info.
DirectStorage är ett kommande API inom DirectX, oklart när det kommer till Windows 10, men kanske så tidigt som Windows 10 2009 men kanske 2104 är mer realistiskt.
Med DirectStorage kan spelutvecklare snabba upp inläsning av artefakter (data som t.ex. texturer) från disk in till grafikminnet med lägre belastning på CPU och hoppa över steget där det mellanlandar i RAM så att data kopieras direkt från en SSD till grafikkort över PCIe.
Lite spekulation... Data är komprimerad i ett format på disk, kopieras direkt till grafikkortet som avkomprimerar den och sedan komprimerar t.ex. texturer i det interna format som grafikkortet använder (grafikkort från olika tillverkare och serier har olika kompression). Det enda CPU'n behöver göra är att skicka instruktioner på vilka block på disken som ska föras över till grafikkortet och grafikkortet tar hand om den annars rätt så CPU-intensiva avkomprimeringen.
Vinsten är att att spel kan göra massivt parallella data-förfrågningar och utnyttja NVMe-diskar betydligt bättre än idag samt att CPU-belastning sjunker och det går snabbare eftersom datan inte behöver passera CPU och RAM.

När det gäller PCIe 3.0 så ser inte jag några som helst problem med att det kan användas för detta, givetvis med sämre prestanda men några tekniska hinder borde inte finnas vad jag vet.

Nu behövs det ju först och främst att DirectStorage läggs in i Windows 10 och efter det att spel utvecklas för att utnyttja tekniken så vi kanske inte ser några titlar med detta förrän 2022 och då kanske ni bytt hårdvara ändå så om ni använder PCIe 3.0 idag kanske är irrelevant.

Dessa två artiklar förklarar mycket bättre än jag vad det går ut på:

https://devblogs.microsoft.com/directx/directstorage-is-comin...

https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelera...

Av houze

@Yoshman

Lite mer info om RTX IO och DirectStorage som dök upp igår, de går inte in på djupet men ger en överblick av hur det fungerar.

https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelera...

https://devblogs.microsoft.com/directx/directstorage-is-comin...

Verkar intressant men jag misstänker det kommer ta tid innan vi får spel som utnyttjar det.

Av houze
Skrivet av Yoshman:

Min gissning: det kan säker ge ett tapp på en procent eller två, det lär knappast vara primär flaskhals... Vet inte vad 14 GB/s man listade för RTX IO betyder, 14 GB/s fixar man med PCe 3.0 x16 (den når 16 GB/s)! Lite märkligt att gränsen är där när man har PCIe 4.0 x16.

Ska bli bli väldigt intressant att se CPU-tester med 3090, då kanske polletten trillar ned för några till varför man vill testa 2080Ti i 1920x1080 och till och med 1280x720.

Räkna lite baklänges, 14GB/s är med komprimering, antar komprimeringsfaktor 2 så halveras värdet och vi får 7GB/s vilket är ungefär vad en PCIe 4.0 NVMe SSD kan läsa.
Så det behövs inte PCIe 4.0 för grafikkortet men SSDn behöver det och då behöver man moderkort som stöder det och då stöder det även PCIe 4.0 till grafikkortet.

Har inte läst något om Microsoft Direct Storage, men jag antar att det handlar om att kunna läsa komprimerad data från en SSD, skicka det till grafikkortet som har hårdvarustöd för dekomprimering och på så sätt avlasta CPU'n.

Edit: Jag antar spel måste utvecklas med stöd för Direct Storage så det lär väl dröja innan vi får se någon effect av detta.

Av houze
Skrivet av jnilssonn:

Som många leaks påvisat förväntas ett snordyrt 3090 som kanske ersätter Titan och ett mainstream topkort 3080 för kanske 650-800 dollar. Min gissning är att nvidia håller på ett 3080Ti till AMD visat sin nästa generation för att antigen ersätta 3080 prisklass om AMD slår på hårt, annars slänger dem ut det för kanske 110-120 dollar om AMD inte kan mäta sig med 3080.

Taggad nå enormt!

Jag tror 3080 blir lite dyrare än $650-800, men även som du att ett 3080ti kan finnas för framtida släpp, enligt ryktena är det rätt stor skillnad på 3090 och 3080 även om de bygger på samma krets, 5248 vs 4352 CUDA-kärnor, så det finns för ett kort mellan dem med t.ex. 4800 CUDA-kärnor, 12GB minne på 384-bitar. Vi får väl se om ett halvår.

Av houze
Skrivet av Snabbt_o_Hårt:

Ska man jämföra minnes mängd mellan AMD och Nvidia får man inte glömma bort att att Nvidias komprimeringsteknik är 40% bättre än AMDs. https://www.youtube.com/watch?v=VsvvFN2mbUE

I Flight Simulator (2020) | RTX 2060 SUPER Vs RX 5700 XT | 1080p High-End Preset drar Nvidia ca 5GB medans AMD drar 6,3GB eller ca 25% mer. Detta i den låga upplösningen 1080p. Så ska AMD matcha RTX 3080 med 10GB så behöver de ca 14GB. RTX 3090 behöver självklart 24GB annars tappar man prestanda när man kopplar ihop 2st med NVlink

Är inte de 40% en gammal siffra? Har för mig den dök upp 8-9 år sedan när 7970 (3GB) och 680 (2GB) var top dogs, båda presterade relativt lika och ingen av dem led av för lite minne.
Sen har komprimering inte varit enbart för att spara på minnesmängd, en större egenskap har varit att spara på bandbredd, därför Nvidia på den tiden hade 256-bitars för 680 medans AMD körde 384-bitars för 7970.
Är nog lite andra saker än komprimering som också skiljer AMD och Nvidia åt, är ju rätt många olika dataobject som ska vara på plats i kortets minne och hur de lagras kan nog skilja åt en del.
Det skiljer helt klart mellan tillverkarna hur mycket minne som går åt, men 40% låter väldigt mycket idag.

Skulle vara intressant att se hur mycket olika saker använder grafikkortens minne vid ett specifikt scenario, t.ex. hur mycket används av texturer, framebuffer, post-processing, AA, DLSS, och andra saker jag inte ens tänkt på. Samt hur ofta grafikkortet behöver hämta ny data från RAM över PCIe under en given test-slinga i ett spel, att hämta någon enskild textur från RAM tycker jag inte borde märkbart, kanske knappt mätbart, men något måste det ju vara som använder all PCIe-bandbredd eftersom så många tycker PCIe4 är så viktigt.