Vinn nätagg från Seasonic

Varning för New World + FTW3 3090

Permalänk
Avstängd

Även jag har testat lite New World betan de senaste dagarna. Vid varje start av spelet nästan fick det min dator att antingen stängas av helt och hållet, datorn startades om eller så stängdes spelet ner. Började läsa en del trådar om grafikkortsöverhettningar etc angående detta spel och började strypa mitt 6900 XT till ingen skillnad alls. Började sedan med att testa olika bios-versioner på mitt MSI MAG X570 Tomahawk utan någon skillnad alls. Till sist drog jag i senaste biosen vilken är en beta men utan den nu så ville sig inte CPU temperaturen visas korrekt.

Började då med att testa min 5950X i lite olika PBO samt överklocknings-inställningar till ingen nytta. Började testa att ha Ryzen Master uppe när jag startade igång New World och vid varje uppstart märkte jag att både PPT, TDC och EDC spikade/lyste rött. Har kört med samma inställningar flera gånger om i Cinebench20 i 10 minuters ertapper och testat varje gång jag ändrat om någonting med klockningen på processorn annars. Men samma inställningar fick datorn att hänga sig totalt med New World, fick ändra om PBO inställningarna manuellt och nu VERKAR det fungera, men ska väl inte säga för mycket.. Men är ett väldigt lustigt spel om det får datorer att betee sig såhär.

Permalänk
Medlem
Skrivet av Phod:

Alltså, jag förstår inte den här typen av argument. Det är ju inte som mjukvaran innehåller sådan här kod:

if (hardwareWillBrick) { dontBrickHardware(); }

Det handlar ju naturligtvis om ett edge case som de inte testat för, och nu har de inträffat. Då är det ju helt meningslöst att säga att det inte ska hända, för det har ju hänt. EVGA har nog aldrig haft för avsikt att leverera kort som går sönder om de används felaktigt. För mig känns det ju viktigare att ta reda på varför det hänt och hur man löser det.

Jag ser i och för sig inget motsatsförhållande mellan dessa.
Ja ett fel har inträffat, ja det är en typ av oacceptabelt fel och ja, det ska definitivt undersökas vad som gått fel så det inte inträffar igen.

Och firmware innehåller ju uppenbarligen en kod i stil med:

if (tempLimitReached) { ThrottleGPUFrequency(); }

Så liknande borde kunna uppnås med en parameter för spänningsvariationer likaväl som det finns mjukvarubaserade checks för Effektbudget etc.

Visa signatur

Apple:
MacBook Pro M1 14" 2021, 10/16 core, 16 RAM, 1TB SSD.
PC:
Moderkort: ASUS ROG STRIX X670E-F Gaming Wifi | CPU: AMD Ryzen 7800X3D | CPU-kylare: Noctua NH-D15S | RAM: G.Skill 6000 CL30 2x16 Gb | GPU: MSI RTX 4090 Gaming X Trio | SSD: Crucial T700 2TB + Samsung 9100 Pro 4 Tb | PSU: Corsair RM850 | Chassi: Fractal Design Torrent | Skärm: Samsung Odyssey G9 | Tangentbord: Corsair K70 RGB Mk.2 MX Speed | Mus: Logitech G604

Permalänk
Avstängd
Skrivet av Greed:

Även jag har testat lite New World betan de senaste dagarna. Vid varje start av spelet nästan fick det min dator att antingen stängas av helt och hållet, datorn startades om eller så stängdes spelet ner. Började läsa en del trådar om grafikkortsöverhettningar etc angående detta spel och började strypa mitt 6900 XT till ingen skillnad alls. Började sedan med att testa olika bios-versioner på mitt MSI MAG X570 Tomahawk utan någon skillnad alls. Till sist drog jag i senaste biosen vilken är en beta men utan den nu så ville sig inte CPU temperaturen visas korrekt.

Började då med att testa min 5950X i lite olika PBO samt överklocknings-inställningar till ingen nytta. Började testa att ha Ryzen Master uppe när jag startade igång New World och vid varje uppstart märkte jag att både PPT, TDC och EDC spikade/lyste rött. Har kört med samma inställningar flera gånger om i Cinebench20 i 10 minuters ertapper och testat varje gång jag ändrat om någonting med klockningen på processorn annars. Men samma inställningar fick datorn att hänga sig totalt med New World, fick ändra om PBO inställningarna manuellt och nu VERKAR det fungera, men ska väl inte säga för mycket.. Men är ett väldigt lustigt spel om det får datorer att betee sig såhär.

Hehe, kommer ni sluta att misshandla era grafikkort nu?! Har inte tillräckligt många andra stackars 3090-kort fått gå i graven för att bekräfta att datorspelet New World från Amazon får vissa(?) grafikkort att dö?!

Visa signatur

"Företagsboendeförmedlare" | Min Überkill Dator: Processor: Intel Pentium P5 66 Mhz OC | Moderkort: ASRock P4I65G | Minnen: 2st Samsung 128MB PC133 | Grafikkort: Canopus GeForce 256 DDR | Lagring: IBM 350 4,4 MB | Operativsystem: DOS/360 | Chassi: Mercury Full-Tower ATX Chassis |

Permalänk
Medlem
Skrivet av AplAy:

Var det inte en form av mjukvaruangrepp mot ett av Irans kärnprogram för ett tag sedan där mjukvara orsakade något i hårdvaran? Möjligen var det inte någon överbelastning utan snarare ett oönskat kommando till hårdvaran att bete sig på ett självdestruktivt sätt?

Precis som datorvirus kan programmeras för att komma runt diverse mjukvaruskydd så kan väl mjukvara råka orsaka att firmware "luras" i hårdvara och därmed löper amok?

Finns nog gott om artiklar men vad jag minnes handlade det om att få in en mjukvaruagent som kunde injicera kod i några centrifuger som först och främst fick dem att bete sig på fel sätt och dessutom dålde riktiga varvtalet så det såg ut som att de betedde sig enligt spec. Så det var ju alltså en avsiktlig attack, med en rejält genomarbetad plan för att få in mjukvaran överhuvudtaget och sedan förstå sig på hårdvaran bra nog för att kunna förstöra något.

Argumentet här är väl att vi har så många lager mellan instruktioner till hårdvaran på låg nivå och koden som utvecklarna har i sitt spel att det inte borde gå att göra något som kan orsaka hårdvaruproblem, och det är ett fint ideal men inte så realistiskt riktigt, det kommer alltid finnas gott om sätt man genom okunskap eller lathet kan sabba något.

Har skrivit om det här tidigare men en gång i tiden förberedde jag en lösning med Windows embedded som kördes med enhanced write filter från ett CF kort, alltså OS laddades till ram och enbart via ett kommando via terminal kunde ändringar sparas. Undantaget var en liten del av disken där jag lämnat plats för att deras applikation skulle kunna skriva loggar- loggarna var så små och skrevs så sällan att kortet (nischade cf-kort från tillverkare som specialiserade i kort som kunde överleva det mesta) skulle ha överlevt att skriva den partitionen on och om igen i flera år. Någon ny på deras it-avdelning fick först sig att det behövde finnas antivirus på denna 300MB xp embedded installation som krldes enbart i ram på ett fristående WiFi nätverk utan internet access, och installerade ett son fick plats på den lilla partitionen, och då inget kunde skrivas till någon annan del av disken la antiviruset temp filer på de få mb som fans kvar utöver AV själv, varpå kortet skrevs sönder på bara veckor eller månader.

AV gjorde inget fel, kortet och datorns hårdvara gjorde inget fel (nya SSD har givetvis kontroller som sköter detta), och jag gjorde inget fel, men personen som ignorerade de instruktioner jag lämnat med för att köra efwmgr commit vid behov och bara gissat sig fram till en lösning på ett problem som inte fanns (alltså, virus i ett slutet nätverk där alla devices är skrivskyddade och enbart laddar ram från disk vid start).
De tyckte givetvis att det var värt fel, för de hade inte ritkgit kompetens bortom att föra argumentet "Men ingen modern dator ska väl gå sönder av ett jävla antivirusprogram eller??"

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Shiprat:

Finns nog gott om artiklar men vad jag minnes handlade det om att få in en mjukvaruagent som kunde injicera kod i några centrifuger som först och främst fick dem att bete sig på fel sätt och dessutom dålde riktiga varvtalet så det såg ut som att de betedde sig enligt spec. Så det var ju alltså en avsiktlig attack, med en rejält genomarbetad plan för att få in mjukvaran överhuvudtaget och sedan förstå sig på hårdvaran bra nog för att kunna förstöra något.

Argumentet här är väl att vi har så många lager mellan instruktioner till hårdvaran på låg nivå och koden som utvecklarna har i sitt spel att det inte borde gå att göra något som kan orsaka hårdvaruproblem, och det är ett fint ideal men inte så realistiskt riktigt, det kommer alltid finnas gott om sätt man genom okunskap eller lathet kan sabba något.

Har skrivit om det här tidigare men en gång i tiden förberedde jag en lösning med Windows embedded som kördes med enhanced write filter från ett CF kort, alltså OS laddades till ram och enbart via ett kommando via terminal kunde ändringar sparas. Undantaget var en liten del av disken där jag lämnat plats för att deras applikation skulle kunna skriva loggar- loggarna var så små och skrevs så sällan att kortet (nischade cf-kort från tillverkare som specialiserade i kort som kunde överleva det mesta) skulle ha överlevt att skriva den partitionen on och om igen i flera år. Någon ny på deras it-avdelning fick först sig att det behövde finnas antivirus på denna 300MB xp embedded installation som krldes enbart i ram på ett fristående WiFi nätverk utan internet access, och installerade ett son fick plats på den lilla partitionen, och då inget kunde skrivas till någon annan del av disken la antiviruset temp filer på de få mb som fans kvar utöver AV själv, varpå kortet skrevs sönder på bara veckor eller månader.

AV gjorde inget fel, kortet och datorns hårdvara gjorde inget fel (nya SSD har givetvis kontroller som sköter detta), och jag gjorde inget fel, men personen som ignorerade de instruktioner jag lämnat med för att köra efwmgr commit vid behov och bara gissat sig fram till en lösning på ett problem som inte fanns (alltså, virus i ett slutet nätverk där alla devices är skrivskyddade och enbart laddar ram från disk vid start).
De tyckte givetvis att det var värt fel, för de hade inte rikgit kompetens bortom att föra argumentet "Men ingen modern dator ska väl gå sönder av ett jävla antivirusprogram eller??"

Jag håller med. Det som blir svårt att svälja med detta senaste New World vs 3090 scenario är tidsfaktorn. Man få intrycket att det skett inom ramen för några timmars spelande. Det har alltid funnits sätt att med mjukvara skapa orimligt "slitage" / belastning på hårdvara, både avsiktligt och oavsiktligt men då har man haft perspektivet månader, t ex att pressa GPU med mining tills minneskretsarna är utbrända.
Jag har hela tiden haft känslan att 3090 och till viss del 3080 Ti kanske är lite för mycket volt och watt och att de skyddsmekanismer man hittills haft inte längre är tillräckliga för att skydda dessa nya monster. Man behöver bara hålla handen i närheten av ett av dessa kort under spelande för att känna att dessa kort är på en helt ny nivå.

Vi får väl se om något år hur väl dessa kort åldrats.

Visa signatur

Apple:
MacBook Pro M1 14" 2021, 10/16 core, 16 RAM, 1TB SSD.
PC:
Moderkort: ASUS ROG STRIX X670E-F Gaming Wifi | CPU: AMD Ryzen 7800X3D | CPU-kylare: Noctua NH-D15S | RAM: G.Skill 6000 CL30 2x16 Gb | GPU: MSI RTX 4090 Gaming X Trio | SSD: Crucial T700 2TB + Samsung 9100 Pro 4 Tb | PSU: Corsair RM850 | Chassi: Fractal Design Torrent | Skärm: Samsung Odyssey G9 | Tangentbord: Corsair K70 RGB Mk.2 MX Speed | Mus: Logitech G604

Permalänk
Medlem
Skrivet av Shiprat:

Finns nog gott om artiklar men vad jag minnes handlade det om att få in en mjukvaruagent som kunde injicera kod i några centrifuger som först och främst fick dem att bete sig på fel sätt och dessutom dålde riktiga varvtalet så det såg ut som att de betedde sig enligt spec. Så det var ju alltså en avsiktlig attack, med en rejält genomarbetad plan för att få in mjukvaran överhuvudtaget och sedan förstå sig på hårdvaran bra nog för att kunna förstöra något.

Argumentet här är väl att vi har så många lager mellan instruktioner till hårdvaran på låg nivå och koden som utvecklarna har i sitt spel att det inte borde gå att göra något som kan orsaka hårdvaruproblem, och det är ett fint ideal men inte så realistiskt riktigt, det kommer alltid finnas gott om sätt man genom okunskap eller lathet kan sabba något.

Har skrivit om det här tidigare men en gång i tiden förberedde jag en lösning med Windows embedded som kördes med enhanced write filter från ett CF kort, alltså OS laddades till ram och enbart via ett kommando via terminal kunde ändringar sparas. Undantaget var en liten del av disken där jag lämnat plats för att deras applikation skulle kunna skriva loggar- loggarna var så små och skrevs så sällan att kortet (nischade cf-kort från tillverkare som specialiserade i kort som kunde överleva det mesta) skulle ha överlevt att skriva den partitionen on och om igen i flera år. Någon ny på deras it-avdelning fick först sig att det behövde finnas antivirus på denna 300MB xp embedded installation som krldes enbart i ram på ett fristående WiFi nätverk utan internet access, och installerade ett son fick plats på den lilla partitionen, och då inget kunde skrivas till någon annan del av disken la antiviruset temp filer på de få mb som fans kvar utöver AV själv, varpå kortet skrevs sönder på bara veckor eller månader.

AV gjorde inget fel, kortet och datorns hårdvara gjorde inget fel (nya SSD har givetvis kontroller som sköter detta), och jag gjorde inget fel, men personen som ignorerade de instruktioner jag lämnat med för att köra efwmgr commit vid behov och bara gissat sig fram till en lösning på ett problem som inte fanns (alltså, virus i ett slutet nätverk där alla devices är skrivskyddade och enbart laddar ram från disk vid start).
De tyckte givetvis att det var värt fel, för de hade inte ritkgit kompetens bortom att föra argumentet "Men ingen modern dator ska väl gå sönder av ett jävla antivirusprogram eller??"

Känner igen det så himla väl. Folk som sitter på senaste hårdvaran med massor av GHz, RAM och SSD och har femtioelva certifikat börjar knorra när de försöker köra deras favorit-ramverk, som ofta är tunga och bloated till förbannelsen, på små Cortex-M4 eller liknande. Då får man lugnt och metodiskt förklara varför det inte går och visa hur det kan lösas, trots att uppgiften bara bestod i att leverera hårdvaran. Men det blir per automatik ens fel.
Än värre när de sedan försöker pusha ut flera kB eller ibland MB per paket helt i onödan mellan random 433MHz-transcievers och gnäller på latensen och att det går trögt. Felkorrigering ovanpå det är så gott som alltid obefintlig dessutom.

Visa signatur

MSI K9N SLI Diamond | MSI Diamond HDMI 7600GT | AMD X2 4200+ | 1GB Kingston HyperX| 32" LG 5000:1 screen | Asus EeePC 701

Permalänk
Medlem
Skrivet av mrqaffe:

Vilket kasst grafikkort, helt felkonstruerat om det går sönder oavsett last, de ska ha inbyggda skyddsmekanismer mot hårdvarufel.

De har förstås inbyggda skyddsmekanismer, men av någon anledning har det här problemet lyckats gå igenom hårdvaru- och mjukvaruskyddsmekanismerna. Det är så det kan bli när du har väldigt komplex mjuk- och hårdvara, du kan inte förutspå alla möjliga fel.

Permalänk
Medlem
Skrivet av nihilist71:

Jag håller med. Det som blir svårt att svälja med detta senaste New World vs 3090 scenario är tidsfaktorn. Man få intrycket att det skett inom ramen för några timmars spelande. Det har alltid funnits sätt att med mjukvara skapa orimligt "slitage" / belastning på hårdvara, både avsiktligt och oavsiktligt men då har man haft perspektivet månader, t ex att pressa GPU med mining tills minneskretsarna är utbrända.
Jag har hela tiden haft känslan att 3090 och till viss del 3080 Ti kanske är lite för mycket volt och watt och att de skyddsmekanismer man hittills haft inte längre är tillräckliga för att skydda dessa nya monster. Man behöver bara hålla handen i närheten av ett av dessa kort under spelande för att känna att dessa kort är på en helt ny nivå.

Vi får väl se om något år hur väl dessa kort åldrats.

Största anledningen till att jag valde att köra med vattenkylning, livstiden på kortet lär ju vara betydligt längre även om jag minar på kortet i princip 24/7. Dom borde ha släppt korten enbart med hybridkylare.

Visa signatur

Lian Li O11 Dynamic XL, Be Quiet Dark power pro 12 1200w, Ryzen 9 3900X(EK velocity), MSI X570, Corsair Dominator 3200mhz, RTX 3090(Suprim X med EK block)+ RTX 3080(FTW3 Ultra med EK block). EK distro/pump O11 Dynamic XL, 2x EK 360mm radiatorer.

Legion 7, 5800H/RTX3080.

Permalänk
Medlem
Skrivet av nihilist71:

Jag håller med. Det som blir svårt att svälja med detta senaste New World vs 3090 scenario är tidsfaktorn. Man få intrycket att det skett inom ramen för några timmars spelande. Det har alltid funnits sätt att med mjukvara skapa orimligt "slitage" / belastning på hårdvara, både avsiktligt och oavsiktligt men då har man haft perspektivet månader, t ex att pressa GPU med mining tills minneskretsarna är utbrända.
Jag har hela tiden haft känslan att 3090 och till viss del 3080 Ti kanske är lite för mycket volt och watt och att de skyddsmekanismer man hittills haft inte längre är tillräckliga för att skydda dessa nya monster. Man behöver bara hålla handen i närheten av ett av dessa kort under spelande för att känna att dessa kort är på en helt ny nivå.

Vi får väl se om något år hur väl dessa kort åldrats.

Ja, gissar att det inte kommer visa sig vara något riktigt slitage till slut utan att någon komponent helt enkelt gick alldeles för långt utanför det spann av temperatur eller ström den var designade för, vare sig det var fel val av komponent eller fel design runt den får man se. Samtidigt är det en ganska uppenbar tabbe som amazon gjort där de av någon anledning belastar ett ett system så mycket som bara går för att rendera en statisk scen i tusentals FPS. Inte första gången jag sett det, har i andra spel (senaste jag minns är nog apex då det tidigt när jag körde på 2080S alltid antingen hade skitdålig fps i menyn eller belastade GPU 98% i menyn) sett liknande idioti, och baserat på snacket på deras forum låter det ju som att de varit medvetna om detta i alphan och valt att inte göra något åt det till betan.

Angående 3080ti/3090- Det är lite ett fall av att man som användare bara ser prestandasifforna när korten lanserar och priserna därefter, jag undrar hur folks val av kort skulle se ut om tillverkare även publicerade väldigt tydliga lättlästa specs på hur pass nära sina toleranser korten pressas, vad livslängden kan tänkas vara på komponenter vid bruk med höjd powertarget osv.

Har ansett länge att för esport, streaming, bara competitive play eller bara spelande på något annat än "datorbyggare/entusiast nivå" så är typ ett xx70 i övre prisklassen det högsta rationella valet- oftast samma kylare som de större korten, från de "bra" märkena brukar de ha väl designade PCB's och man kan gissa att de ligger en bra bit ifrån att pusha gränserna som xx80, xx80ti och nu xx90 korten gör.

Jag tyckte det var intressant att se LTT's video, efter jag gnällt om mina varma minnen på 3090, där han jämför 6900XT mot 3090 i 8k eller något och bränner sig på 3090 när han tar ut det.

Har ofta diskuterats hit och dit här på forumet huruvida strömförbrukning är något man verkligen ska bry sig om eller om det bara är något tillverkarna drar fram vid behov för att hitta på meningslösa fördelar över sina konkurrenter, men känns som att detta är ett typiskt symptom på att pressa en krets förbi den gräns där den är stabil för att kräma ur lite extra prestanda- påminner mig om mina Vega64 som också hade fin potential för överklockning men kunde bli väldigt instabila när de peakade.

Skrivet av Opatagio:

Känner igen det så himla väl. Folk som sitter på senaste hårdvaran med massor av GHz, RAM och SSD och har femtioelva certifikat börjar knorra när de försöker köra deras favorit-ramverk, som ofta är tunga och bloated till förbannelsen, på små Cortex-M4 eller liknande. Då får man lugnt och metodiskt förklara varför det inte går och visa hur det kan lösas, trots att uppgiften bara bestod i att leverera hårdvaran. Men det blir per automatik ens fel.
Än värre när de sedan försöker pusha ut flera kB eller ibland MB per paket helt i onödan mellan random 433MHz-transcievers och gnäller på latensen och att det går trögt. Felkorrigering ovanpå det är så gott som alltid obefintlig dessutom.

Yep, det var ett typiskt problem med just windows embedded- en inköpare eller konsult som förstår vad som köps in beställer en skräddarsydd nerlåst lösning av svenskt tillverkade industridatorer som kan överleva allt från att köras i djupt vatten till att sitta på odämpade gruvmaskiner osv, vars chassi bara basically är 5 kilo massivt aliminium utfräst för att passa skräddarsydda moderkort, och sedan får man klagomål att det inte går att glo på youtube på maskinen vars operativsystem strippats på 90% av sina komponenter för att kunna kallstarta på <10 sek.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av nihilist71:

Jag ser i och för sig inget motsatsförhållande mellan dessa.
Ja ett fel har inträffat, ja det är en typ av oacceptabelt fel och ja, det ska definitivt undersökas vad som gått fel så det inte inträffar igen.

Det är inget motsatsförhållande, men att påpeka självklarheter som att så här ska det inte fungera och försöka ge en enstaka part skulden är ju så improduktivt. Men jag antar att det är ett sätt att ge utlopp för oron över att hamna i den situationen att man inte kan spela.

Just det att försöka sätt skulden på någon visar ju bara hur litet insikt man har om det här problemet. Grafikkorten har ju levererats med det här felet och fungerat ett tag, ändå tills en viss mjukvara har triggat någonting som brickat korten. Det är ju inte så att EVGA har levererat kort som de varit medvetna om kommer att dö när viss hårdvara körs på dem. Det här kommer säkert att kosta dem en hel del, så låt mig vara tydlig och påpeka att de inte vill vara i den här situationen.

Så att bara säga "Det är EVGAs fel" tillför ingenting, och är delvis felaktigt.

Skrivet av nihilist71:

Och firmware innehåller ju uppenbarligen en kod i stil med:

if (tempLimitReached) { ThrottleGPUFrequency(); }

Så liknande borde kunna uppnås med en parameter för spänningsvariationer likaväl som det finns mjukvarubaserade checks för Effektbudget etc.

Ehh, ditt svar är ju också ett exempel på hur programmering inte fungerar? I verkligheten är det inte sådär simpelt, och i det här fallet är det osannolikt att det är temperaturen det är fel på. För hög temperatur orsakar instabilitet innan hårdvara går och dör helt och hållet.

Visa signatur

Bra, snabbt, billigt; välj två.

Ljud
PC → ODAC/O2 → Sennheiser HD650/Ultrasone PRO 900/...
PC → S.M.S.L SA300 → Bowers & Wilkins 607

Permalänk
Medlem
Skrivet av Shiprat:

Yep, det var ett typiskt problem med just windows embedded- en inköpare eller konsult som förstår vad som köps in beställer en skräddarsydd nerlåst lösning av svenskt tillverkade industridatorer som kan överleva allt från att köras i djupt vatten till att sitta på odämpade gruvmaskiner osv, vars chassi bara basically är 5 kilo massivt aliminium utfräst för att passa skräddarsydda moderkort, och sedan får man klagomål att det inte går att glo på youtube på maskinen vars operativsystem strippats på 90% av sina komponenter för att kunna kallstarta på <10 sek.

Ha ha, har haft liknande problem med ett system som kördes på hårdvara som jag är ganska säker inte är lika kraftfull som den som finns i vissa Barbie-dockor. Begränsad CPU- och minneskapacitet, med ett lagringsmedia som var känsligt för fragmentering. Det skulle levereras inkrementella uppdateringar till ett dataset. För stora uppdateringar och minne räckte inte till, för små uppdateringar och lagringsmediat blev fragmenterat. Som alltid växte ju mängden uppdateringar med tiden, och jag var tvungen att påpeka att någon gång kommer man att nå punkten då det inte går hantera mängden uppdateringar längre.

Visa signatur

Bra, snabbt, billigt; välj två.

Ljud
PC → ODAC/O2 → Sennheiser HD650/Ultrasone PRO 900/...
PC → S.M.S.L SA300 → Bowers & Wilkins 607

Permalänk
Medlem
Skrivet av baner85:

Största anledningen till att jag valde att köra med vattenkylning, livstiden på kortet lär ju vara betydligt längre även om jag minar på kortet i princip 24/7. Dom borde ha släppt korten enbart med hybridkylare.

Även vattenkylda kort är drabbade av det här problemet.

Visa signatur

Samsung Odyssey G9 240Hz HDR1000 5120x1440 9900K 5,3GHz 1,335v adaptive Asus Z390-I
Asus RTX 2070 Dual EVO Advanced 8GB G.Skill Trident Z RGB B-Die 3200MHz CL16 2x16GB Samsung 970 Evo 1TB
Seasonic Focus Plus Gold 850W 2 x Dell U2715H Corsair K65 Speed SteelSeries Rival 500 Bose Companion 5
Secretlab TITAN 2020 SoftWeave Corsair H100i RGB Platinum Noctua NF-A12x25 x 4 PnP Neo G Mini GB4: 6869 CB15: 233

Permalänk
Medlem
Skrivet av SCORPIUS:

Har ni ett 3090 och vill spela detta spel så kan ni få byta mot mitt 1070. Win win

HAHA den va bra

Visa signatur

Hail to the king, Baby!

CPU: Intel Core I9 9900k 5000 mhz oc, Mobo = Asus maximus XI extreme, Asus ROG RYUJIN 360, Gskill 3600mhz 32 Ram,Samsung 1TB Evo Plus M.2, Samsung 2TB Evo Plus M.2, 2x Samsung 850 Pro 2 TB SSD, Samsung 860 Evo 1TB, Windows 10 Pro.
KeyBoard: Corsair K95, Asus Thor 1200w,Samsung g7 240hz 32 Inch, Asus 3090 Strix OC \m/

Permalänk
Medlem

Mitt Gigabyte RTX 3090 OC rök idag efter ca: 10 minuters kö och speltid..typiskt
hoppas backup-kortet överlever.

Permalänk
Medlem

Dåligt för mig: jag har ett EVGA 3090 FTW3 Ultra

Bra för mig: spelar inte multiplayer frivilligt och skulle aldrig få för mig att ens testa det där spelet (som jag aldrig ens hört talas om förrän nu).

Visa signatur

9950X3D | 5080

Permalänk
Medlem
Skrivet av Phod:

Det är inget motsatsförhållande, men att påpeka självklarheter som att så här ska det inte fungera och försöka ge en enstaka part skulden är ju så improduktivt. Men jag antar att det är ett sätt att ge utlopp för oron över att hamna i den situationen att man inte kan spela.

Just det att försöka sätt skulden på någon visar ju bara hur litet insikt man har om det här problemet. Grafikkorten har ju levererats med det här felet och fungerat ett tag, ändå tills en viss mjukvara har triggat någonting som brickat korten. Det är ju inte så att EVGA har levererat kort som de varit medvetna om kommer att dö när viss hårdvara körs på dem. Det här kommer säkert att kosta dem en hel del, så låt mig vara tydlig och påpeka att de inte vill vara i den här situationen.

Så att bara säga "Det är EVGAs fel" tillför ingenting, och är delvis felaktigt.

Vem har sagt att det är EVGAs fel?

Skrivet av Phod:

Ehh, ditt svar är ju också ett exempel på hur programmering inte fungerar? I verkligheten är det inte sådär simpelt, och i det här fallet är det osannolikt att det är temperaturen det är fel på. För hög temperatur orsakar instabilitet innan hårdvara går och dör helt och hållet.

Självklart är det inte så simpelt, det kallas pseudokod när man försöker illustrera på ett förenklat sätt för att förenkla diskussionen. Det är oklart vad du försöker säga egentligen, men du kan slappna av, det är inget fel på EVGA.

Visa signatur

Apple:
MacBook Pro M1 14" 2021, 10/16 core, 16 RAM, 1TB SSD.
PC:
Moderkort: ASUS ROG STRIX X670E-F Gaming Wifi | CPU: AMD Ryzen 7800X3D | CPU-kylare: Noctua NH-D15S | RAM: G.Skill 6000 CL30 2x16 Gb | GPU: MSI RTX 4090 Gaming X Trio | SSD: Crucial T700 2TB + Samsung 9100 Pro 4 Tb | PSU: Corsair RM850 | Chassi: Fractal Design Torrent | Skärm: Samsung Odyssey G9 | Tangentbord: Corsair K70 RGB Mk.2 MX Speed | Mus: Logitech G604

Permalänk
Medlem
Skrivet av muSashi:

Även vattenkylda kort är drabbade av det här problemet.

Japp men menade problemet med förbrukning under belastning och den värme detta medför.
Gör att korten är extremt svåra att hålla i någorlunda temp i ett vanligt chassi.

Även med vattenkylning(custom loop) så kan man nå över 80 grader på memory temp junction om man inte har AC igång inne.

Så dessa kort är inte direkt optimala med vanligt fläkt kylning.

Visa signatur

Lian Li O11 Dynamic XL, Be Quiet Dark power pro 12 1200w, Ryzen 9 3900X(EK velocity), MSI X570, Corsair Dominator 3200mhz, RTX 3090(Suprim X med EK block)+ RTX 3080(FTW3 Ultra med EK block). EK distro/pump O11 Dynamic XL, 2x EK 360mm radiatorer.

Legion 7, 5800H/RTX3080.

Permalänk
Medlem

Kanske lite off-topic, men visst har detta hänt med andra spel också?

Jag kommer dock inte ihåg, men jag tror det. Vissa spel som nästan tog död på grafikkort.

Jag kommer ihåg när jag var i huvudmenyn i Euro Truck Simulator och FPSn var ocappad... herregud vilket coilwhine, tror grafikkortet gick i turboläge eller nått... och hade kanske 4000 fps... Så jävla dåligt designat av utvecklarna xD

Permalänk
Medlem
Skrivet av Chromatic:

Kanske lite off-topic, men visst har detta hänt med andra spel också?

Jag kommer dock inte ihåg, men jag tror det. Vissa spel som nästan tog död på grafikkort.

Jag kommer ihåg när jag var i huvudmenyn i Euro Truck Simulator och FPSn var ocappad... herregud vilket coilwhine, tror grafikkortet gick i turboläge eller nått... och hade kanske 4000 fps... Så jävla dåligt designat av utvecklarna xD

Vet att det finns olika benchmark programvaror som har lyckades med att förstöra datorkomponenter.

Visa signatur

Samsung Odyssey G9 240Hz HDR1000 5120x1440 9900K 5,3GHz 1,335v adaptive Asus Z390-I
Asus RTX 2070 Dual EVO Advanced 8GB G.Skill Trident Z RGB B-Die 3200MHz CL16 2x16GB Samsung 970 Evo 1TB
Seasonic Focus Plus Gold 850W 2 x Dell U2715H Corsair K65 Speed SteelSeries Rival 500 Bose Companion 5
Secretlab TITAN 2020 SoftWeave Corsair H100i RGB Platinum Noctua NF-A12x25 x 4 PnP Neo G Mini GB4: 6869 CB15: 233

Permalänk
Medlem
Skrivet av muSashi:

Vet att det finns olika benchmark programvaror som har lyckades med att förstöra datorkomponenter.

Bara nyfiken.
Är det någon skillnad på att tvinga ett grafikkort att rendera så hög fps som möjligt jämfört med att faktiskt belasta det med komplicerad grafik?

Permalänk
Medlem
Skrivet av Chromatic:

Bara nyfiken.
Är det någon skillnad på att tvinga ett grafikkort att rendera så hög fps som möjligt jämfört med att faktiskt belasta det med komplicerad grafik?

Bra fråga xD, det skulle jag också vilja ha svar på!

Visa signatur

Samsung Odyssey G9 240Hz HDR1000 5120x1440 9900K 5,3GHz 1,335v adaptive Asus Z390-I
Asus RTX 2070 Dual EVO Advanced 8GB G.Skill Trident Z RGB B-Die 3200MHz CL16 2x16GB Samsung 970 Evo 1TB
Seasonic Focus Plus Gold 850W 2 x Dell U2715H Corsair K65 Speed SteelSeries Rival 500 Bose Companion 5
Secretlab TITAN 2020 SoftWeave Corsair H100i RGB Platinum Noctua NF-A12x25 x 4 PnP Neo G Mini GB4: 6869 CB15: 233

Permalänk
Medlem
Skrivet av baner85:

Japp men menade problemet med förbrukning under belastning och den värme detta medför.
Gör att korten är extremt svåra att hålla i någorlunda temp i ett vanligt chassi.

Även med vattenkylning(custom loop) så kan man nå över 80 grader på memory temp junction om man inte har AC igång inne.

Så dessa kort är inte direkt optimala med vanligt fläkt kylning.

Är det 25 grader i rummet så når i allafall inte min custom loop med aktiv backplate några 80 grader. Snarare max 50 på minnet efter långa sessioner i +1000 mem clock. Core i gpu max 40-42 grader.
Ja, jag har bra flöde och många radiatorer men är custom en 240mm radiator med fläktar i 600 rpm och 40 l/h utan aktiv backplate så förstår jag att det blir överhettat. (Eller om man inte har monterat det korrekt så klart)

Permalänk
Medlem

För egen del har jag sedan jag fick mitt 3080 Ti FTW Ultra Hybrid undervoltat det. Har monitorerat förbrukningen vid olika spänningar i spel (Quake RTX, CP2077 m.fl.) och Heaven 4.0.

Kortet klarar 2040MHz konstant frekvens vid .994V men då måste jag ge mer strömbudget än det som ryms i Normal-biosets ca. 400W (ffa. i Quake RTX). Eftersom jag också uppskattar ett tyst system och vill att fläktarna ska kunna stanna vid låg last måste jag köra Normal-bioset. I OC-bioset (450W) ger ovanstående inställningar inga problem, men fläktarna snurrar hela tiden. Förbrukningen är då "hög", även om den är ännu högre/ineffektiv utan en egen spänningskurva (default bioset går upp till 1.081 V).

Siktar nu på ett förbrukningstak på ~330W om det är för jädra varmt inomhus (vilket det ofta är just nu). Och vid svalare dagar och senare i år på ~370W. Förbrukningsskillnaden mellan 0,9V och 0,975 är just 35~40W (motsvarar ca. 90MHz).

Använder också tre separata strömkablar från nätagget, ett till vardera 8-pin-kontakt på kortet.

Ovanstående är tips för att begränsa värme, förbrukning och spänningsrippel med ett dylikt kort.

För dom som har ett 3090 och är obrydda om värme och förbrukning finns detta:
https://forums.evga.com/EVGA-GeForce-RTX-3090-FTW3-XOC-BIOS-m...

Edit: kör givetvis även alltid GSync och överstiger aldrig 120FPS i något spel.

Visa signatur
Permalänk
Medlem
Skrivet av Daniel75:

Är det 25 grader i rummet så når i allafall inte min custom loop med aktiv backplate några 80 grader. Snarare max 50 på minnet efter långa sessioner i +1000 mem clock. Core i gpu max 40-42 grader.
Ja, jag har bra flöde och många radiatorer men är custom en 240mm radiator med fläktar i 600 rpm och 40 l/h utan aktiv backplate så förstår jag att det blir överhettat. (Eller om man inte har monterat det korrekt så klart)

Kör med dubbla kort, 3090 + 3080 och minar Eth på dessa(i princip 24/7), bägge korten ligger på runt 68-70 grader(22 grader inne) och drar tillsammans runt 570w. Minar man tex Rvn så är temperaturerna 5-6 grader högre och har man 26-27 grader inne så når man utan problem 80 grader. Har ingen aktiv backplate, eller egentligen man kan kalla den semi aktiv då jag har en kylfläns + fläkt där.

Även när jag spelar så låter jag 3080 kortet mina på.

Vid spel är temperaturerna givetvis betydligt lägre, går inte ens att jämföra.

Luftkylt kan ett kort utan problem nå 100+ grader, även i spel...

Visa signatur

Lian Li O11 Dynamic XL, Be Quiet Dark power pro 12 1200w, Ryzen 9 3900X(EK velocity), MSI X570, Corsair Dominator 3200mhz, RTX 3090(Suprim X med EK block)+ RTX 3080(FTW3 Ultra med EK block). EK distro/pump O11 Dynamic XL, 2x EK 360mm radiatorer.

Legion 7, 5800H/RTX3080.

Permalänk
Medlem
Skrivet av Chromatic:

Bara nyfiken.
Är det någon skillnad på att tvinga ett grafikkort att rendera så hög fps som möjligt jämfört med att faktiskt belasta det med komplicerad grafik?

Jo, någon slags skillnad borde det bli. Som du vet finns det i stort sett två komponenter på ett grafikkort som står för jobbet, GPU + minne. GPUn utför beräkningar och minnet lagrar data. Dessutom består GPUn av en massa kärnor. GPUn använder minnet, så när något ska hämtas från det så måste den del av GPUn som begärt data vänta litet.

Beroende på vad man kör på grafikkortet så belastas de olika delarna olika. Om man kör något som inte är så minneskrävande så kan GPUn köra mer, medans kör man något som är minneskrävande så måste GPUn (fast inte hela) vänta ibland och den kör mindre. Det är en förenklad beskrivning, i verkligheten är det mer komplicerat men principen är densamma.

Nu är jag inte någon expert på exakt vad som sker när man renderar en väldigt enkel scen i hög FPS, men det verkar som om någon del av grafikkortet jobbat väldigt hårt (eftersom den inte varit så beroende av någon annan del), och krävt mer ström än tillverkaren har förväntat sig. Poff! Det är en enkel beskrivning av hur det kan ha gått till.

Visa signatur

Bra, snabbt, billigt; välj två.

Ljud
PC → ODAC/O2 → Sennheiser HD650/Ultrasone PRO 900/...
PC → S.M.S.L SA300 → Bowers & Wilkins 607

Permalänk
Medlem

Jag vill börja spela New World ikväll, men har inte orkat sätta mig in något djupare i problemet som artikeln beskriver.

Jag har ett RTX 3080 TUF OC med drivers 466.77. Min frame rate har jag cappat till 140 Hz och via MSI Afterburner monitorerar jag konstant genomsnittlig temperatur på grafikkort och processor.

Det jag undrar: Är jag safe eller kan det skita sig fortfarande?

Permalänk
Medlem
Skrivet av baner85:

Kör med dubbla kort, 3090 + 3080 och minar Eth på dessa(i princip 24/7), bägge korten ligger på runt 68-70 grader(22 grader inne) och drar tillsammans runt 570w. Minar man tex Rvn så är temperaturerna 5-6 grader högre och har man 26-27 grader inne så når man utan problem 80 grader. Har ingen aktiv backplate, eller egentligen man kan kalla den semi aktiv då jag har en kylfläns + fläkt där.

Även när jag spelar så låter jag 3080 kortet mina på.

Vid spel är temperaturerna givetvis betydligt lägre, går inte ens att jämföra.

Luftkylt kan ett kort utan problem nå 100+ grader, även i spel...

Får man fråga vad du får ut för MH/s på korten? Speciellt när du spelar samtidigt.

Visa signatur

Samsung Odyssey G9 240Hz HDR1000 5120x1440 9900K 5,3GHz 1,335v adaptive Asus Z390-I
Asus RTX 2070 Dual EVO Advanced 8GB G.Skill Trident Z RGB B-Die 3200MHz CL16 2x16GB Samsung 970 Evo 1TB
Seasonic Focus Plus Gold 850W 2 x Dell U2715H Corsair K65 Speed SteelSeries Rival 500 Bose Companion 5
Secretlab TITAN 2020 SoftWeave Corsair H100i RGB Platinum Noctua NF-A12x25 x 4 PnP Neo G Mini GB4: 6869 CB15: 233

Permalänk
Medlem
Skrivet av backfeed:

Dåligt för mig: jag har ett EVGA 3090 FTW3 Ultra

Bra för mig: spelar inte multiplayer frivilligt och skulle aldrig få för mig att ens testa det där spelet (som jag aldrig ens hört talas om förrän nu).

jag har 3090 asus stric oc hade spelat men hände ingen ok hade på very high 1440p och när jag fick höra det problemet då satte jag 60 cap i spelet tur ingen hände ockcå men best inte! Riskera!!! asus är det bästa för mig

Visa signatur

Hail to the king, Baby!

CPU: Intel Core I9 9900k 5000 mhz oc, Mobo = Asus maximus XI extreme, Asus ROG RYUJIN 360, Gskill 3600mhz 32 Ram,Samsung 1TB Evo Plus M.2, Samsung 2TB Evo Plus M.2, 2x Samsung 850 Pro 2 TB SSD, Samsung 860 Evo 1TB, Windows 10 Pro.
KeyBoard: Corsair K95, Asus Thor 1200w,Samsung g7 240hz 32 Inch, Asus 3090 Strix OC \m/

Permalänk
Medlem
Skrivet av AplAy:

OOF. Jag har ett 3090 MSI Gaming X Trio. Dags att tanka hem MSI Afterburner och justera ned inställningarna såsom strömförsörjning?

Eller aktivera v-sync.

Visa signatur

AMD Ryzen 7 9800X3D 5.4Ghz +NH-D15 Chromax
MSI RTX 5080 Gaming Trio OC 3300mhz
Asus ROG Strix X870-F Gaming WIFI
Corsair Dominator Platinum 6200mhz 32GB CL36
Samsung G9 49”/240hz, NZXT H9 Flow, Corsair RM850X ATX 3.1

Permalänk
Medlem
Skrivet av Knotvillage:

Eller aktivera v-sync.

Vsync är dock kasst om du har fps under skärmens refreshrate då det kommer halvera hela tiden.

Nvidia har en max fps setting på global driver level istället.