Någon annan som är missnöjd med sitt Rtx 3080?

Permalänk
Medlem
Skrivet av Muppetlord:

Att CPUn flaskhalsar i upplösningar under 4k var ju egentligen ingen hemlighet. Tråkigt förvisso, men skulle inte säga att det är GPUn som är boven.

Jag kan rekommendera denna video från Hardware Unboxed om huruvida CPUn sätter flaskhalsar för RTX3080 i upplösningar under 4K. Mycket sevärd!

https://www.youtube.com/watch?v=c7npXXyXJzI

Visa signatur

AMD Ryzen 7800x3d | Asus Strix X670E-F | G.Skill DDR5 2x32GB @6000MT/s CL30 | RTX 4090 TUF | Sound Blaster AE-7 | WD SN850x 4TB | Corsair HX1500i | NZXT H7 Flow | Logitech G915 TKL | G502 X Lightspeed | LG 42" C2 OLED | Logitech Z-5500 | Epos H6Pro | Windows 11 Pro

Permalänk
Medlem
Skrivet av pv2b:

Alltså, jag förstår inte, hur kan din temperatur vid idle bli högre bara för att ditt grafikkort har en högre maxeffekt?

Vid idle drar ju kortet i princip ingen ström och utvecklar garanterat inte effekt för att höja temp med 10 grader.

Det är inte alls något konstigt, har samma problem med mitt 2080S Trio X- det passiva läget jämfört med alltid aktiva fläktar resulterar i att kortet som normalt hade legat exakt på ambient temp i idle istället får bygga upp lite värme tills backplate blir varm, och om man använder PCIE slot 1 så ligger den rätt nära CPU och RAM.

Sedan beror allt på hur man tolkat ordet idle- vid 100% idle kan jag inte påstå att det är ett stort problem för mig- min gpu är varmare än ambient men inte nog för att vara ett issue. Har man en youtubeflik uppe och lite andra saker som faktiskt använder en skvätt GPU så kommer den ligga i ett högre powerstate snarare än att vara helt idle även fast den större delen av tiden inte gör något och även om den bara burstar lite med faktisk belastning från och till så byggs det snabbt upp i värme sålänge fläktarna inte går.

Sitter för nuvarande så att mitt ben ofta ligger mot chassits sida, och det är ofta jag sitter och bara browsar runt, kanske glor youtube medan jag meckar med något osv och känner genom sidoplåten att GPUn gått rejält varm igen. Verkar även vara kanske lite bugg med MSI's styrning då det händer att fläktarna inte vill gå igång direkt även vid *hög* load utan väntar tills sensorerna registreras höga temps, och vid det laget är det försent så GPU kommer behöva throttla lite för att komma ner till hanterbara temp och hitta en jämn nivå.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Skrivet av Lodisen:

Jag kollade nu och kortet suger i sig 130W (enligt Hwinfo, och kortet är rätt varmt) vid idle vilket verkar extremt högt.
Skall ta och installera om drivrutinerna, annars antar jag det får bli en RMA.

Om man har "Läget Energisparfunktioner = Föredrar maximal prestanda" i Nvidias kontrollpanel går kortet ALLTID på högsta klocka, minne och spänning(1800MHz, 9501MHz och 0.912V i mitt fall). Mitt drar då runt 107W idle.
Jag kör den på Optimal kraft och då går klockan ner till 210MHz, 405MHz och 0.725V och drar 37,6W i idle.

Visa signatur

i7-7700K, 16GB
RTX3080 Aorus Master

Permalänk
Hedersmedlem
Skrivet av Shiprat:

Det är inte alls något konstigt, har samma problem med mitt 2080S Trio X- det passiva läget jämfört med alltid aktiva fläktar resulterar i att kortet som normalt hade legat exakt på ambient temp i idle istället får bygga upp lite värme tills backplate blir varm, och om man använder PCIE slot 1 så ligger den rätt nära CPU och RAM.

Sedan beror allt på hur man tolkat ordet idle- vid 100% idle kan jag inte påstå att det är ett stort problem för mig- min gpu är varmare än ambient men inte nog för att vara ett issue. Har man en youtubeflik uppe och lite andra saker som faktiskt använder en skvätt GPU så kommer den ligga i ett högre powerstate snarare än att vara helt idle även fast den större delen av tiden inte gör något och även om den bara burstar lite med faktisk belastning från och till så byggs det snabbt upp i värme sålänge fläktarna inte går.

Sitter för nuvarande så att mitt ben ofta ligger mot chassits sida, och det är ofta jag sitter och bara browsar runt, kanske glor youtube medan jag meckar med något osv och känner genom sidoplåten att GPUn gått rejält varm igen. Verkar även vara kanske lite bugg med MSI's styrning då det händer att fläktarna inte vill gå igång direkt även vid *hög* load utan väntar tills sensorerna registreras höga temps, och vid det laget är det försent så GPU kommer behöva throttla lite för att komma ner till hanterbara temp och hitta en jämn nivå.

Alltså, han säger att datorns RAM-minne blir 10 grader varmare bara för att han har ett nytt grafikkort i?

Att GPU:n har olika temperatur vid idle beror ju som du skriver på hur fläktkurvan funkar...

Permalänk
Skrivet av General Nord:

Jag kan rekommendera denna video från Hardware Unboxed om huruvida CPUn sätter flaskhalsar i upplösningar under 4K.
https://www.youtube.com/watch?v=c7npXXyXJzI

Intressant! Det var mer än vad jag visste.

Visa signatur

I9 10900k, Gigabyte 3080 Aorus Master, Corsair 32GB 3200MHz CL16, 1TB Samsung M.2 SSD, Asus Rog Strix Z490F, NZXT Kraken Z73 360mm, Lian-Li O11 Dynamic. Men viktigast av allt, svinmånga RGB fläktar!

Permalänk
Medlem
Skrivet av pv2b:

Alltså, han säger att datorns RAM-minne blir 10 grader varmare bara för att han har ett nytt grafikkort i?

Att GPU:n har olika temperatur vid idle beror ju som du skriver på hur fläktkurvan funkar...

Med tanke på vad han sa om att det drar 360W och resulterar i högre CPU-temps, hans kommentar om radiatorn och om att kortet tydligen drar 130W i idle så antog jag att det handlade om att närhet till GPUn värmer upp RAM, inte "bara för att han har ett nytt grafikkort" utan för att GPUn är varmare, tycker inte det är en så pass konstig sak- Känns väl rätt logiskt? Har bara haft tre eller fyra kort med riktigt passiv fläktkurva varav två inte drog mycket nog att märkas, men både med mitt 2080S och tidigare med ett betydligt mindre törstigt 1080Ti så noterade jag att kortet kan bli rätt varmt innan fläktarna startar vilket gärna påverkar systemets värme.

Då luften som förs igenom av chassifläktarna inte riktigt går igenom kylflänsarna så kyls det ju aldrig ner, och även met hyfsat bra flöde genom chassit så kommer en varm komponent värma upp allt närliggande.

Dock låter ju kommentaren om radiatorn lite konstigare, om radiatorn sitter i topp bör man också ha utflöde i topp och då bör det inte "samlas" någon varmluft där uppe. Har man inte utflöde i topp så blir det inte jättebra.

Skrivet av Lodisen:

Nej, cpu-användningen/power draw är den samma som innan.
Jag kör med en AIO som måste vara monterad i toppen av chassit. Den varma luften stiger och samlas vid radiatorn innan den hinner bytas ut mot kallare luft.
Mina ramminnen gick från 35C idle till 45C idle och från 44.5C under load till 55C+ bara genom att byta grafikkortet.

Har du utflöde i topp? Jag har själv radiator monterade i topp, och har utflöde där men så lite plats uppåt mot skrivbordet att jag märket att det hela liksom blir lite kvävt.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Skrivet av LongKalsong:

Metro Exodus Benchmark.exe default settings, ultra och hairworks och PhysX off (såg att de flesta kör det.)
Ultra
Texture Filtering AF 16X
Motion Blur Low
Tesselation Full
Advanced PhysX Off
Hairworks Off
Ray Trace High

3440x1440
DLSS On = 118 fps
DLSS Off = 72 fps

4K
DLSS On = 92 fps
DLSS Off = 49 fps

Jag kör detta mest på min 4K (LG OLED C7) med VSYNC på 60fps och med DLSS och RTX Ultra, underbart. RTX känns verkligen inte som en gimmick utan helhetsintrycket av bilden blir fantastisk!
DLSS funkar också mycket bra. Bara sett ett tillfälle i dunkelt ljus med ett brinnande ljus då det blev någon sorts förvrängning.

Tack för du kolla upp det
hmm. 72fps (DLSS off) var ju inte superkatigt.. för exodus stödjer ju inte DLSS 2.0 vad jag vet. och har bara hört dåligt om DLSS 1.0.
Inte för jag har kunnat köra med DLSS i dagsläget, men kör nog hällre utan RT och DLSS än med DLSS och RT,

aja kan jag få 100 fps på high utan RT så är jag nöjd, bättre än 40-50fps som jag får ut nu med mitt 1070 på high/medium.

Visa signatur

Moderkort.Asus z390-i || CPU. Intel Core i7 9700K "OC 5,0 Ghz" || Minne:32gb 3200Mhz. ||Nätagg: Phanteks Revolt Pro 1000W || OS w10pro || GPU: Nvidia RTX 3080 MSI GAMING X TRIO Monitor:Asus ROG Swift PG348Q #3440x1440@100htz

Permalänk
Medlem
Skrivet av Lodisen:

Nej, cpu-användningen/power draw är den samma som innan.
Jag kör med en AIO som måste vara monterad i toppen av chassit. Den varma luften stiger och samlas vid radiatorn innan den hinner bytas ut mot kallare luft.
Mina ramminnen gick från 35C idle till 45C idle och från 44.5C under load till 55C+ bara genom att byta grafikkortet.

Nånting är konstigt här...man går inte upp 25% värme från att byta ut ett 5700xt till ett 3080. Då är det ditt 3080 som inte gör ett ordentligt jobb. Har du provat med AIO i front i stället?

Finns en hel del titlar där även 3080 är limit i 1080p Ultra och 1440p medium.

https://www.tomshardware.com/features/nvidia-geforce-rtx-3080...

Som du ser är det inte väldigt stor skillnad mellan en 3600 och en 10900k i 1080p ultra i en del titlar.
Det där med att man måste spela i 4k med ett 3080 är faktist inte sant.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem

super nöjd!
gick från 5700xt till 3080 aorus master.
spelar assassins creed oddysey på 90fps average 3440x1440p maxat med en AIO kyld 3700x
min bottleneck är verkligen min cpu. lär ju bli fett med ny cpu nästa år då budgeten inte tillåter nå nytt nu (11k för aorusmaster)
samt kör ja 3 skärmar missmatched i olika vyer utan problem vilket är skönt då 5700xt inte gillade multimonitor.
ja ser att man inte kan klaga på gpun utan de kringliggande delarna, chassi fläkt cpu moderkort, kanske tillome omdu glömt xmp osv.

Visa signatur

AMD 3700x, 3080 gigabyte aorus master (aka unicorn), 4x8gb 3000mhz ddr4 corsair, x570 gigabyte gaming x, asus TUF 35" ultrawide 100hz
twitch.tv/heikalive wow classic streams

Permalänk
Medlem

Nu efter lite efterforskning får jag skamset erkänna att jag hade klantat till det själv. Tidigare när jag körde med mitt 5700XT började det krångla och tätt inpå att jag skaffade ett 3080 så hade jag satt PCI-E till 2.0 i Bios. (Vilket jag givetvis glömde ändra när jag bytte kort)

Enligt tester så bör detta bara ge en prestandadiff på ~5% jämfört med 4.0, men för mig var det som natt och dag.
När jag ändrade tillbaka till PCI-E 4.0 så hoppade prestandan upp 30% (Kan det ha något att göra med att jag kör dubbla M.2 varav en är PCI-E Gen 4?)
Energiförbrukningen vid idle hoppade även ned till 30W.

Visa signatur

Ryzen 5800X3D | 64 GB Ram | 7900 XTX | Samsung 990 Pro 4 TB + Seagate FireCuda 520 2TB * 2
Laptop: Core 9 Ultra 185H | 24GB Ram | RTX 4060 | 3 TB NVME

Permalänk
Medlem

Det är fortfarande en massa problem, men inte relaterade till prestandan.
Så jag skulle vilja säga att jag fortfarande är grovt missnöjd med kortet (Gigabyte 3080 Gaming OC)

1. När skärmarna har gått in i viloläge och man trycker på någon tangent/musen så kraschar hela datorn och drar en reboot.

2. Fungerade bra utan att krascha i 1 dag med nya drivrutinerna, sedan började det igen.
Kraschar till desktop från många spel utan egentlig anledning. Kör jag med game-ready drivers tar det allt mellan 10 minuter och 5 timmar innen en krasch kommer, medans studio drivers fungerar snäppet bättre.

3. Kan ej köra två grejor i fullscreen (Exempelvis Twitch/Youtube på sekundära skärmen och ett spel på den primära. Eller VLC/Youtube. Två saker i fullscreen så går det snett).
Då händer detta https://streamable.com/l7ofqc

4. Skall vara semi-passivt men det lägsta fläktarna snurrar i är 51% och går ej att ställa in manuellt.

Som grädde på moset är det ett Gigabyte från den kullen som har problem med strömkontakterna (De är hela än så länge)

Nej, det får nog bli ett garantiärende.
Dock så skulle man hamna sist i kön och få vänta tills nästa år enligt Inet där det inhandlades

Visa signatur

Ryzen 5800X3D | 64 GB Ram | 7900 XTX | Samsung 990 Pro 4 TB + Seagate FireCuda 520 2TB * 2
Laptop: Core 9 Ultra 185H | 24GB Ram | RTX 4060 | 3 TB NVME

Permalänk
Medlem
Skrivet av Lodisen:

Det är fortfarande en massa problem, men inte relaterade till prestandan.

Eftersom det är ett Gigabyte kontrollera att PCI-E kontakterna verkligen sitter som dom ska. Kolla ditt serienummer. Det ska börja med 20 och sedan två siffror. Typ 2037 eller 2039. Om numret är 2038 eller lägre har du förmodligen ett trilskandes kabeldon och då blir det som du redan är inne på ett garantiärende. Kort som är tillverkade från vecka 39 (serienummer 2039 och högre) har det uppgraderade kabeldonet så då är det nog inte det.

Visa signatur

Chassi: Phanteks P600S | Mobo: MSI Z-690 Edge Wifi DDR4 | RAM: 32GB | GPU: ASUS TUF Gaming GeForce RTX 4090 OC | CPU: Intel i7 12700K | Kylning: Phanteks Glacier One 360MP HALOS | SSD: Samsung 980 Pro 1TB + 970 Evo 2TB | HDD: 8TB+4TB WD Red/Blue intern + 500GB WD extern | PSU: ASUS Rog Strix 1000W | Skärm: Samsung 75Q95T (TV)

Permalänk
Medlem
Skrivet av Rico01:

Eftersom det är ett Gigabyte kontrollera att PCI-E kontakterna verkligen sitter som dom ska. Kolla ditt serienummer. Det ska börja med 20 och sedan två siffror. Typ 2037 eller 2039. Om numret är 2038 eller lägre har du förmodligen ett trilskandes kabeldon och då blir det som du redan är inne på ett garantiärende. Kort som är tillverkade från vecka 39 (serienummer 2039 och högre) har det uppgraderade kabeldonet så då är det nog inte det.

Det är dessvärre ett kort från 2038, men man har inte någon större lust att vara utan kortet +tre månader.
Skall försöka kontakta Gigabyte direkt och se om de kan lösa något den vägen.

Edit: För att svarar på din fråga så sitter strömkablarna i som de skall och jag använder två olika kablar från PSUn.

Visa signatur

Ryzen 5800X3D | 64 GB Ram | 7900 XTX | Samsung 990 Pro 4 TB + Seagate FireCuda 520 2TB * 2
Laptop: Core 9 Ultra 185H | 24GB Ram | RTX 4060 | 3 TB NVME

Permalänk
Medlem
Skrivet av Lodisen:

Det är dessvärre ett kort från 2038, men man har inte någon större lust att vara utan kortet +tre månader.
Skall försöka kontakta Gigabyte direkt och se om de kan lösa något den vägen.

Nej, jag förstår helt, jag har inte vågat röra mitt kort sedan jag fick igång det eftersom det också är från V 38. Skriv gärna vad du får för svar!

Visa signatur

Chassi: Phanteks P600S | Mobo: MSI Z-690 Edge Wifi DDR4 | RAM: 32GB | GPU: ASUS TUF Gaming GeForce RTX 4090 OC | CPU: Intel i7 12700K | Kylning: Phanteks Glacier One 360MP HALOS | SSD: Samsung 980 Pro 1TB + 970 Evo 2TB | HDD: 8TB+4TB WD Red/Blue intern + 500GB WD extern | PSU: ASUS Rog Strix 1000W | Skärm: Samsung 75Q95T (TV)

Permalänk

Hmm......

Nedan benchmarks ser vi att att det ska finnas en hög skillnad mellan rtx 2070s (motsvarar 5700xt) och 3080 är ungefär 40% 1440p.
Vi ser även att CPU-bottleneck är marginell i spektrumet i5-9400f och senare (och/eller bättre)
Här kan man se benchmarks

3080 vs 2070 super - https://www.youtube.com/watch?v=RFtzL6YNxVk
Intel CPU bottlenecks mot 3080 - https://www.youtube.com/watch?v=0-dMWprbPh8

Begriper inte hur ni kan vara på samma fps som era gamla kort..

Permalänk
Medlem

Jag är väldigt nöjd med mitt kort, ökat prestanda med bra bit över 100% i de flesta fall. Eftersom jag kör en 4K skärm behövdes det.

Det är en sak jag är missnöjd med. Spelar en del The Division 2. Med mitt förra Pascal kort och DX12 fick jag CTD med jämna mellanrum. Känt problem, många med Nvidia-kort som har samma, och man får köra DX11 istället. Med mitt nya Ampere kort provade jag igen (rensat inställnignar/cache/ny ren drivrutininstallation). Istället för CTD med jämna mellanrum får jag nu en system reboot med jämna mellanrum. Från dåligt till jättedåligt. DX11 fungerar fortfarande utan problem.

Permalänk
Medlem
Skrivet av Lodisen:

Nu efter lite efterforskning får jag skamset erkänna att jag hade klantat till det själv. Tidigare när jag körde med mitt 5700XT började det krångla och tätt inpå att jag skaffade ett 3080 så hade jag satt PCI-E till 2.0 i Bios. (Vilket jag givetvis glömde ändra när jag bytte kort)

Enligt tester så bör detta bara ge en prestandadiff på ~5% jämfört med 4.0, men för mig var det som natt och dag.
När jag ändrade tillbaka till PCI-E 4.0 så hoppade prestandan upp 30% (Kan det ha något att göra med att jag kör dubbla M.2 varav en är PCI-E Gen 4?)
Energiförbrukningen vid idle hoppade även ned till 30W.

Jag upptäckte för någon vecka sedan att när jag satte i en till m.2 i mitt system så gick översta PCI-e slotten ner till 8x. Visade sig att min andra m.2 slot delade lanes med översta PCI-e slotten. Det löser kanske inte dina problem men kan vara värt att kika på! GPU-Z visar ju hur snabbt GPUn körs. Har förvisso bara PCI-e gen 3 på mitt system och du har gen 4 så det kanske inte gör någon skillnad för dig! Bara en tanke som slog mig

Permalänk
Medlem

Jag har planer på ett 3080.
Jag kör 1080 nu
Har bara en 1080p skärm.
Däremot tänker jag att jag ska få en prestanda boost för VR.
tänkte investera en skärm också inför cyberpunk.
Sugen på ultrawide 1440p eller 4k "vanlig"
Vad rekomenderas?
1080p lär kortet vara Overkill för.

Visa signatur

🇸🇪 VR Sverige Discord server - Svensk VR Community
https://discord.com/invite/avnhs6mgjc

Permalänk
Avstängd
Skrivet av Molotov:

Jag har planer på ett 3080.
Jag kör 1080 nu
Har bara en 1080p skärm.
Däremot tänker jag att jag ska få en prestanda boost för VR.
tänkte investera en skärm också inför cyberpunk.
Sugen på ultrawide 1440p eller 4k "vanlig"
Vad rekomenderas?
1080p lär kortet vara Overkill för.

LG 48" CX 4K

Visa signatur

Mr. Scriptman

Permalänk
Medlem
Skrivet av Lagerlöf:

LG 48" CX 4K

Lite för stort, max storlek som ryms där jag har skärmen är typ en 34" ultrawide men som sagt med dom nya korten är ju även 4k intressant

Visa signatur

🇸🇪 VR Sverige Discord server - Svensk VR Community
https://discord.com/invite/avnhs6mgjc

Permalänk
Skrivet av Molotov:

Jag har planer på ett 3080.
Jag kör 1080 nu
Har bara en 1080p skärm.
Däremot tänker jag att jag ska få en prestanda boost för VR.
tänkte investera en skärm också inför cyberpunk.
Sugen på ultrawide 1440p eller 4k "vanlig"
Vad rekomenderas?
1080p lär kortet vara Overkill för.

Kan ju sikta på något mittemellan. Kanske en ultrawide 3840 x 1600? Det är ju snäppet under 4k, så inte riktigt lika tungdrivet, borde passa ett 3080 ganska bra. 3440x1440 går nog också bra.

Kortet är helt klart överkill för 1080p.

Visa signatur

I9 10900k, Gigabyte 3080 Aorus Master, Corsair 32GB 3200MHz CL16, 1TB Samsung M.2 SSD, Asus Rog Strix Z490F, NZXT Kraken Z73 360mm, Lian-Li O11 Dynamic. Men viktigast av allt, svinmånga RGB fläktar!

Permalänk
Medlem

Jag var missnöjd med coil whine och gjorde återköp pga det på ett 3090. Vid fullt fläktblås så överröstades coil whinet nästan helt, men det skiftade pitch väldigt mycket. Ska det låta måste det vara konsekvent så det försvinner in i bakgrundsbruset.
Annars var kortet väldigt trevligt och gjorde väldigt bra ifrån sig i 4K, bortsett från den höga powerdrawen ihop med coil whine.

Någon annan som haft coil whine?

Visa signatur

MSI Leopard GP66 liquid metal | 11800H @4.5GHz all-c | 3070m @1470MHz/0.7v | 32GB DDR4 3200MHz cl19
Bild: LG C2 42"
Ljud: Beyerdynamic DT1990 Pro

Permalänk
Inaktiv
Skrivet av Lodisen:

Det är dessvärre ett kort från 2038, men man har inte någon större lust att vara utan kortet +tre månader.
Skall försöka kontakta Gigabyte direkt och se om de kan lösa något den vägen.

Edit: För att svarar på din fråga så sitter strömkablarna i som de skall och jag använder två olika kablar från PSUn.

Efterfråga en advanced RMA de innebär att du får ha kvar ditt kort tills du får det nya och när du får de nya skickar du tillbaka det gamla.

Permalänk
Medlem
Skrivet av anon300311:

Efterfråga en advanced RMA de innebär att du får ha kvar ditt kort tills du får det nya och när du får de nya skickar du tillbaka det gamla.

Inet sade att de inte har möjlighet till detta. Fick svar från Gigabyte och de bad mig gå via Inet.
Tycker det är lite vrickat att man skall behöva vara utan kortet i flera månader när det var ett fabrikationsfel.

Visa signatur

Ryzen 5800X3D | 64 GB Ram | 7900 XTX | Samsung 990 Pro 4 TB + Seagate FireCuda 520 2TB * 2
Laptop: Core 9 Ultra 185H | 24GB Ram | RTX 4060 | 3 TB NVME

Permalänk
Medlem

Satt på ett 1080ti innan och visst fungerade det helt ok i dagens spel. Ändå kör jag ofta 5120x1440 vilket är nästan 4k. Men jag ville ha ett nytt kort för Cyberpunk och andra titlar som tar tillvara på modernare grejer RTX/DLSS, så jag är nöjd. Råstyrkan kanske inte var prio ett med uppgraderingen.

Permalänk
Inaktiv
Skrivet av Lodisen:

Inet sade att de inte har möjlighet till detta. Fick svar från Gigabyte och de bad mig gå via Inet.
Tycker det är lite vrickat att man skall behöva vara utan kortet i flera månader när det var ett fabrikationsfel.

Okej, intel tex har att dom första 30 dagarna ska man gå genom ÅF sen genom dom.
ÅF kan aldrig nästan erbjuda Advanced RMA. Vilket är förståligt.

MSI, Intel och Samsung har iaf RMA.

Permalänk
Medlem

@Lodisen

Jag har ett likadant kort som dig, från den första batchen, 2035 börjar mitt serienummer med.

Jag är väldigt nöjd och har aldrig haft en enda krasch som dragit ner hela datorn.
Jag har haft 2 spelkrasher när jag undervoltat till under 750mV.

Vid idle drar kortet 30W men man känner dock att 30 W släpper ut en del värme vid det bakre "genomblåset" så det stiger en del värme uppåt. Jag har samma AIO konfig med utblås genom radiator i toppen på mitt Fractal R7 chassi.

Jag har landat på en underklockning på 775mV 1680MHz och när jag spelar i 4K 60FPS så ligger kortet på ca 200W och 62 grader medan processorn ligger på mellan 55 - 65 grader. Jag upplever att den totala värmen i chassit är högre än med mitt förra kort när jag spelar på standardinställningarna och då drar CPU temperaturen upp några grader p g a varmluften som ska genom radiatorn.

GPU fläktarna hör jag aldrig då radiatorfläktarna alltid låter högre.

Men överlag, vilka inställningsmöjligheter, vilken prestanda.
Med mitt ROG Strix 1080 spelade jag RDR2 1440p med ca 45-50 FPS, med detta kort 4K 60 FPS underklockat och undervoltat.
När jag inte spelar kör jag ofta folding@home och det är löjligt effektivt på det och spottar oftast ur sig en unit på ca 1 timma undervoltat enligt ovan.
Så jag är extremt nöjd.

Visa signatur

Apple:
MacBook Pro M1 14" 2021, 10/16 core, 16 RAM, 1TB SSD.
PC:
Moderkort: MSI MEG X570 ACE | CPU: AMD Ryzen R7 5800X | CPU-kylare: Corsair H150i Elite Capellix | RAM: G.Skill Trident NEO 3600 2x16 Gb | GPU: MSI RTX 4090 Gaming X Trio | SSD: Samsung 980 Pro 1 TB NVMe + Samsung 980 Pro NVMe 2 Tb | PSU: Corsair RM850x | Chassi: Lian Li PC-O11 Dynamic XL | Skärm: Samsung Odyssey G9 | Tangentbord: Corsair K70 RGB Mk.2 MX Speed | Mus: Logitech G604