Asus Geforce RTX 3090 TUF Gaming OC

Permalänk
Konsolpleb 🕹
Skrivet av Ozzed:

OK, då är jag med på hur ni resonerat, dock lär det väl inte släppas ett enda 3090, eller 3080 för den delen, som inte har högre effektuttag än vad vi vant oss vid. Men det återstår ju att se

Jo man får ju se det i ett större perspektiv tänker jag. Om AMD lanserar big Navi med liknande prestanda men ett modest effektuttag t.ex. eller om Nvidia själva kliver ner på en bättre processnod (TSMC 5nm tex?) till nästa generation så kommer ju troligen denna generation stå ut med sina extremt törstiga kort.
Eller så har de precis höjt ribban för all framtid kanske, för tidigt att säga

480 och 580 var ju också väldigt törstiga medan 680 tog ett rejält kliv ner i effektuttag, Sen pushades det upp igen med 780 och sen ner rejält med 980. Så det är inte som om det alltid bara går upp, men RTX 3000 innebär ett ovanligt stort kliv upp och då bör de också få lite skit för det.
300w+ har vi ju knappt varit uppe i förut förutom med dubbelmacke-korten så som 590 och TITAN Z osv. Sen finns det förstås värre bovar historiskt R290 X2 och R295 X2 som var rena skämten.

Sen ska de förstås ha en eloge för att de lyckas dra så mycket och ändå ge ett utfall som typ motiverar effektuttaget och vad vi sett hittills på både FE och t.ex. TUF: kylningslösningar som mäktar med det både temperatur- och ljudnivåmässigt.

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av UndaC:

Kortet drar också osedvanligt mycket sett till grafikkort historiskt = något negativt för dem som ogillar det.

Det där tycker jag är en tråkig utveckling med mycket i världen. När vi egentligen borde ha som mål att bli energieffektivare i allt vi gör så kan taket för energin ett kort slukar ändå slå nya rekord.

Visst energieffektiviteten kanske är likvärdig som föregående generation men det spelar ju ingen roll när man I slutändan använder mer energi i en rigg ändå. Varför är det så svårt att bryta mentaliteten inom elektronik (bland annat) att det inte spelar någon roll hur mycket ström något drar så länge man har råd och det fungerar. Vart är miljöaspekten? Det ifrågasätts inte ens vad jag Kan läsa/lyssna på här och på youtube.

Jag skulle ju inte bli ledsen av att en maxgräns sattes för strömförbrukning för icke professionellt bruk när det kommer till hårdvara. Men det är ju väldigt opopulärt att tycka så 🤷‍♂️

Permalänk
Medlem
Skrivet av Querth:

Det där tycker jag är en tråkig utveckling med mycket i världen. När vi egentligen borde ha som mål att bli energieffektivare i allt vi gör så kan taket för energin ett kort slukar ändå slå nya rekord.

Visst energieffektiviteten kanske är likvärdig som föregående generation men det spelar ju ingen roll när man I slutändan använder mer energi i en rigg ändå. Varför är det så svårt att bryta mentaliteten inom elektronik (bland annat) att det inte spelar någon roll hur mycket ström något drar så länge man har råd och det fungerar. Vart är miljöaspekten? Det ifrågasätts inte ens vad jag Kan läsa/lyssna på här och på youtube.

Jag skulle ju inte bli ledsen av att en maxgräns sattes för strömförbrukning för icke professionellt bruk när det kommer till hårdvara. Men det är ju väldigt opopulärt stt tycka så 🤷‍♂️

Jag håller med dig. Det vore inget problem alls om det blev så.
För med klara regler att förhålla sig till så fixar dom det ändå. Vi skulle ändå få snabbare grafikkort, cpu osv.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av Querth:

Det där tycker jag är en tråkig utveckling med mycket i världen. När vi egentligen borde ha som mål att bli energieffektivare i allt vi gör så kan taket för energin ett kort slukar ändå slå nya rekord.

Visst energieffektiviteten kanske är likvärdig som föregående generation men det spelar ju ingen roll när man I slutändan använder mer energi i en rigg ändå. Varför är det så svårt att bryta mentaliteten inom elektronik (bland annat) att det inte spelar någon roll hur mycket ström något drar så länge man har råd och det fungerar. Vart är miljöaspekten? Det ifrågasätts inte ens vad jag Kan läsa/lyssna på här och på youtube.

Jag skulle ju inte bli ledsen av att en maxgräns sattes för strömförbrukning för icke professionellt bruk när det kommer till hårdvara. Men det är ju väldigt opopulärt att tycka så 🤷‍♂️

Kul då att det verkar som att AMD kommer med riktigt energieffektiva kort nu nästa månad enl alltfler rykten. Likvärdig prestanda med 3080 och drar 200-230w. Hoppas det stämmer uppgifterna.

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem
Skrivet av Querth:

Jag skulle ju inte bli ledsen av att en maxgräns sattes för strömförbrukning för icke professionellt bruk när det kommer till hårdvara. Men det är ju väldigt opopulärt att tycka så 🤷‍♂️

Med tanke på att det också går åt resurser/energi till att framställa produkterna så försvinner en hel del av dina besparingar förlorade om de tvingar fram tidigare uppgraderingar pga lägre prestanda. Samma princip som när man titta på om en elbil är en vinst eller inte för miljön mot att bara behålla den gamla "miljöboven" som man redan har. Dvs kör du väldigt lite så är det "miljöbilen" som orsakar större skada i slutändan (iaf i dagsläget).

Om något så är det framförallt inom den professionella världen (dvs tvärt om mot din uppfattning) där man ska lagstifta om effektivitet osv. Där kan man garantera att vinsterna är så stora som möjligt iom att hårdvaran ofta är igång dagligen eller tom 24/7.

Permalänk
Medlem

@KalBumling: Jag trodde helt enkelt att det var väldigt viktigt med energieffektivisering i serverhallar, om det är vad syftar på. Är inte det redan väldigt viktigt där?

Användningsområden där det skulle vara mer okej att ha mindre effektiva kretsar/kraftigare kort skulle ju vara för spelutvecklarna som kan behöva den extra kraften innan spelen är mer optimerade. Men jag tycker inget utesluter det andra, det ska alltid siktas på förbättring i energieffektivisering inom alla fronter. Att det skulle släppas kort oftare tror jag inte riktigt skulle hända, det skulle nog fortfarande ta lång utvecklingstid precis som idag att släppa nya kort med annat fokus. Prestandan skulle ju vara bättre, men till ett max tak av strömförbrukningen.

Men det du tar upp är viktigt för många tänker likadant. Att det liksom är en hopplös cirkel där man inte vinner. Det kostar alltid att producera, men man kan göra det effektivare. Oftast är ju lägre strömförbrukning likvärdigt med färre komponenter och att man kräver mindre energi av ett elnät som ständigt byggs ut. Vi måste ju jobba från alla håll när det gäller att bli effektivare, att producera energi och konsumera mindre energi. Man kan alltid göra det bättre, effektivare och mer miljövänligt. Det gäller bara att ha ett annat fokus, vilket ständigt nedprioriteras. 3080 hyllas för grym bra prestanda, vilket jag håller med om att det har. Men jag skulle även vilja att det samtidigt fick rejäla avhyvlingar för att det drar så mycket ström och att det krävs extra resurser för att kyla.

Jag tänker att det är ju rätt skevt att det hyllas att Nvidia lyckas kyla de här korten så pass bra, när det egentligen borde diskuteras mer om att det ens kräver så pass mycket mer resurser/material i första hand. Sättet det här redovisas i recensioner är tråkigt tycker jag bara, det kunde vara mer nyanserat. Det är dags att kräva mer av de här företagen. Jag hade samma åsikter om bulldozer, Vega osv också.

Jaja, ville inte starta en hel miljödebatt egentligen. Tyckte det kunde vara kul om det lyftes mer i sammanhanget oftare.

Permalänk
Medlem
Skrivet av Querth:

Att det skulle släppas kort oftare tror jag inte riktigt skulle hända

Inte direkt det jag syftade på, utan mer på hur länge man som användare är nöjd med det man redan har längre om den initiala prestandan ligger högre. Om den lägre prestandan betyder att fler konstant jagar mer prestanda och uppgraderar varje produktcykel istället för t.ex varannan så får man börja räkna på om det är värt det eller inte.

Samma sak kan diskuteras när det kommer till hållbarhet/livstid på produkter. Att nånting har bättre hållbarhet är inte alltid en vinst, det är fullt möjligt att den mer hållbara produkten använt mer resurser/energi relativt till ökningen man fått ut.

Permalänk
Medlem

3090 är så otrolig dåligt för dess pris.

10% över 3080 för mer än DUBBELT så mycket pengar...

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Medlem

Att marknadsföra detta som ett spelinriktat kort för 8k rimmar dåligt med resultaten kortet uppvisar. 10-15% bättre prestanda för 100% prispåslag. Vilken besvikelse. Finfin recension men 3090 blev verkligen ingen bra produkt i slutändan tyvärr!

Skrivet av ronz:

Jag förstår inte. Denna har 2st 8 pins kontakter. Medans 3080 Strix har 3st 8 pin kontakter.
Bör inte 3090 dra mer ström även om det är en TUF model?

Om man kikar hur mycket watt som passerar genom varje kontakt så kan man ganska snabbt dra slutsatsen att två kontakter hade räckt ganska långt i många fall.

Visa signatur

Nytt hela tiden

Permalänk
Medlem

Det här kortet vill jag ha, ska jag äga ett kort för över 7000 kr nån gång i mitt liv så är det nu.
Såg dock att inet får in dom först 2021?

Visa signatur

< :: Intel i9 9900ks@5.0Ghz | 32Gb DDR4@3400Mhz | Geforce RTX 4070 :: >

Permalänk
Medlem
Skrivet av SCORPIUS:

Vore faktiskt intressant att höra någon som köpt RTX 3090 enbart och enbart för spel motivera varför det inte blir ett RTX 3080.
Gärna då med personliga screens på vilken fps personen får.

Har själv lagt beställning på ett 3090 TUF (som jag börjar fundera på om man ska ändra till ett strix). Det är såklart "ovärt" men jag är en extrem fps-snobb och vill därför ha varenda liten fps som går att få. Allt under 170-200fps är så man blir illamående av, varför jag fortfarande spelar på 1080p.
Sen är kostnaden i sig inget problem för min del, det är ungefär vad jag lägger undan en vanlig månad.

Visa signatur

Dator: i9 12900K @5.2 all core, Arctic Freezer II 420mm, Asus Z690 Hero, 32gb 6000MHZ CL34 DDR5, Asus RTX 3090 TUF OC , Asus Strix 1000w Nätagg, 1x1TB NVME Systemdisk, 2x500GB NVME Gamingdiskar, Fractal Meshify 2 XL, 32" Samsung Odyssey G7 240hz

Permalänk
Medlem
Skrivet av SCORPIUS:

Vore faktiskt intressant att höra någon som köpt RTX 3090 enbart och enbart för spel motivera varför det inte blir ett RTX 3080.
Gärna då med personliga screens på vilken fps personen får.

Samma anledning som varför vissa köper en pickup där du måste ha stege för att ta dig in i aset.
Alternativt mer "framtidssäkert" med mer Vram kanske vissa känner.

Skrivet av Dr0st:

Allt under 170-200fps är så man blir illamående av, varför jag fortfarande spelar på 1080p.

Det här var det sjukaste. Hur gjorde du innan alla skärmar med hög frekvens kom? Spyhink i knät?

Permalänk
Medlem

Kan inte se denna som en "bra produkt"... löjligt pris för prestandan (för spel/vanligt hemmabruk), inte generellt bättre än FE, som i sig är överprisad (för spel/vanligt hemmabruk).

Visa signatur

Ny dator: Acer Predator Orion 5000 (RTX 3080)
[ I7 3770K @ 4.6Ghz | Asus 980 Ti 6GB | 16GB | Asus P8Z77-V PRO | Samsung 830 128GB | Corsair H100 | Cooler Master HAF X | Corsair AX 850W | Samsung DVD±RW ] [ Sony AF9 65" | Sony WF-1000XM3 | HTC Vive | Huawei P40 Pro | PS4 Pro | PS3 Slim | PS2 chippad | PS Vita | DS Lite | SNES Mini ]

Permalänk
Medlem
Skrivet av Querth:

Det där tycker jag är en tråkig utveckling med mycket i världen. När vi egentligen borde ha som mål att bli energieffektivare i allt vi gör så kan taket för energin ett kort slukar ändå slå nya rekord.

Visst energieffektiviteten kanske är likvärdig som föregående generation men det spelar ju ingen roll när man I slutändan använder mer energi i en rigg ändå. Varför är det så svårt att bryta mentaliteten inom elektronik (bland annat) att det inte spelar någon roll hur mycket ström något drar så länge man har råd och det fungerar. Vart är miljöaspekten? Det ifrågasätts inte ens vad jag Kan läsa/lyssna på här och på youtube.

Jag skulle ju inte bli ledsen av att en maxgräns sattes för strömförbrukning för icke professionellt bruk när det kommer till hårdvara. Men det är ju väldigt opopulärt att tycka så 🤷‍♂️

Principiellt håller jag med men...
Jag blir glatt överraskad att se att en värstingdator drar 450W som mest, det är verkligen inte mycket, speciellt som folk tror att de måste ha nätaggregat på minst 850W om man läser köpråden här på SWEC när man till och med i en värsting klarar sig på 550W.
Det blir lätt lite sila mygg och svälja elefanter när vi i Sverige större delen av året värmer våra bostäder och energi inte kan förstöras bara omvandlas. Om vi räknar på 13g koldioxid per kWh (Källa) blir det 51Kg/år för den datorn vid konstant maxlast, motsvarande utsläpp tar dig ca 320 Km i en liten bil med förbränningsmotor (160g/Km Källa), den energin hamnar dessutom inte i en bostad utan i atmosfären. Om vi går tillbaka till grafikkortet så lär tillverkningen av ett RTX 3090 generera mer än 100Kg koldioxidutsläpp (Källa). Går vi tillbaka till bilen så släpps minst 6 ton koldioxid ut bara i tillverkningen (Källa).

Permalänk
Medlem

Såg ingen som kommenterat detta, så:
Riktigt kul att se test med normaliserad ljudvolym! Ger en väldigt bra uppfattning av vad kylaren klarar av. Kanske borde normalisera effekten också för att ännu mer isolera kylarens värmeavledningsförmåga?

Permalänk
Medlem

Det här blir rätt oseriöst. Man låter alla testa korten och skriva artiklar. Sen släpper man en ny driver där korten bostar ca 100mhz lägre för att korten var instabila.

Det känns jsom man strategiskt överklockat korten så de precis fungerar bara för att få höga poäng från testare. Detta då Nvidia är tysta och inte säger något utan bara klockar ner korten med ny driver.

Permalänk
Medlem

Har jag missförstått nånting när alla säger att 3090 är så dåligt? Ja det är dyrare än 3080 för lite ökning i prestanda i 4K.
Men är det inte bara 3090 som har stöd för 8K gaming? Har man råd med en vettig 8K skärm så är nog inte ett 3090 så dyrt i den aspekten.

Permalänk
Avstängd
Skrivet av backlulund:

Har jag missförstått nånting när alla säger att 3090 är så dåligt? Ja det är dyrare än 3080 för lite ökning i prestanda i 4K.
Men är det inte bara 3090 som har stöd för 8K gaming? Har man råd med en vettig 8K skärm så är nog inte ett 3090 så dyrt i den aspekten.

70 % av alla spelare på steam kör fortfarande 1080p.

Finns det ens någon som spelar på 8K?

Visa signatur

Mr. Scriptman

Permalänk
Medlem

Även om jag tycker ett effektmätning är intressant främst utifrån en utvecklingstekniskt synpunkt och kylning så tycker jag argumentet med elkostnader kopplat till ökad energiförbrukning som något märkligt.

Till exempel om man utgår från Sweclockers effektmätningslista i testet och tar den lägsta konfigurationen med Geforce RTX 2060 FE på 225W för hela systemet och Geforce RTX 3090 med 450W och sen beräknar kostnaderna dessa emellan så känns beloppen rätt triviala.

Utgår vi från att systemet står igång 24 timmar om dygnet med 100% belastning och räknar på en relativt högt elpris på 42 öre per kWh (som förekommer periodvis främst i de södra delarna i Sverige enligt Konsumenternas Energimarknadsbyrå) så får vi följande kostnader:

225W systemet: 69,05 kr per månad / 828, kr per år
450W systemet: 138,09 kr per månad / 1657 kr per år

Utgår man från andra siffror (och nu har jag fortfarande tagit i lite) med 6 timmar per dygn där systemet belastas 100% och med ett Energimarknadsbyråns snittpris på 28 öre per kWh så får man följande siffror:

225W systemet: 11,56 kr per månad / 138,70 kr per år
450W systemet: 23,12 kr per månad / 277,40 kr per år.

Dvs för vad jag antar är en genomsnittsanvändare som har systemet ovan för hemmabruk dvs. spel eller produktion som fritidsaktivitet så skulle ett 3090 kosta i regel 138,70 kr mer om året än ett 2060 i ökade elkostnader. För de flesta så skulle nog kostnaden vara ännu mindre då systemen i regel inte belastas 100% när man har den påslagen.

Visst finns det en hel del av er där datoranvändningen överstiger 6 timmar per dag eller att ni har datorsystem för annat än fritidsaktiviteter men för den genomsnittliga konsumenten som sätter igång speldatorn efter en lång arbetsdag så har energiförbrukningen minimalt genomslag på ens kostnader.

Effektförbrukning vid recensioner tycker jag fortfarande ska mätas men jag blir väldigt fundersam kring den negativa vikten man lägger vid komponenters effektförbrukning i diskussioner på internet då den i regel har minimal inverkan på kunders kostnader och ekonomi (iaf utifrån en svensk kontext). Känner att man i regel bör vinkla den diskussionen på att det ofta krävs av konsumenten att prioritera kylningslösningar i systembygget lite annorlunda än vid ett lågeffektsbygge vilket kan påverka prisbilden istället.

Permalänk
Medlem
Skrivet av backlulund:

Har jag missförstått nånting när alla säger att 3090 är så dåligt? Ja det är dyrare än 3080 för lite ökning i prestanda i 4K.
Men är det inte bara 3090 som har stöd för 8K gaming? Har man råd med en vettig 8K skärm så är nog inte ett 3090 så dyrt i den aspekten.

Vad exakt menar du med "har stöd för 8k gaming"? Alla grafikkort kan rendera bilder i 8k, det handlar bara om hur många bilder per sekund de klarar av att rendera. Det relativa prestandatsppet när du går från 4k till 8k lär vara snarlikt för 3080 och 3090.

Permalänk
Medlem
Skrivet av Schiznit:

Samma anledning som varför vissa köper en pickup där du måste ha stege för att ta dig in i aset.
Alternativt mer "framtidssäkert" med mer Vram kanske vissa känner.

Det här var det sjukaste. Hur gjorde du innan alla skärmar med hög frekvens kom? Spyhink i knät?

Hur menar du? Sen när måste man ha samma fps som skärmens hz? Det är enorm skillnad i flyt på 400fps 60hz och 60fps 60hz...

Visa signatur

Dator: i9 12900K @5.2 all core, Arctic Freezer II 420mm, Asus Z690 Hero, 32gb 6000MHZ CL34 DDR5, Asus RTX 3090 TUF OC , Asus Strix 1000w Nätagg, 1x1TB NVME Systemdisk, 2x500GB NVME Gamingdiskar, Fractal Meshify 2 XL, 32" Samsung Odyssey G7 240hz

Permalänk
Medlem
Skrivet av Boggus:

Även om jag tycker ett effektmätning är intressant främst utifrån en utvecklingstekniskt synpunkt och kylning så tycker jag argumentet med elkostnader kopplat till ökad energiförbrukning som något märkligt.

Till exempel om man utgår från Sweclockers effektmätningslista i testet och tar den lägsta konfigurationen med Geforce RTX 2060 FE på 225W för hela systemet och Geforce RTX 3090 med 450W och sen beräknar kostnaderna dessa emellan så känns beloppen rätt triviala.

Utgår vi från att systemet står igång 24 timmar om dygnet med 100% belastning och räknar på en relativt högt elpris på 42 öre per kWh (som förekommer periodvis främst i de södra delarna i Sverige enligt Konsumenternas Energimarknadsbyrå) så får vi följande kostnader:

225W systemet: 69,05 kr per månad / 828, kr per år
450W systemet: 138,09 kr per månad / 1657 kr per år

Utgår man från andra siffror (och nu har jag fortfarande tagit i lite) med 6 timmar per dygn där systemet belastas 100% och med ett Energimarknadsbyråns snittpris på 28 öre per kWh så får man följande siffror:

225W systemet: 11,56 kr per månad / 138,70 kr per år
450W systemet: 23,12 kr per månad / 277,40 kr per år.

Dvs för vad jag antar är en genomsnittsanvändare som har systemet ovan för hemmabruk dvs. spel eller produktion som fritidsaktivitet så skulle ett 3090 kosta i regel 138,70 kr mer om året än ett 2060 i ökade elkostnader. För de flesta så skulle nog kostnaden vara ännu mindre då systemen i regel inte belastas 100% när man har den påslagen.

Visst finns det en hel del av er där datoranvändningen överstiger 6 timmar per dag eller att ni har datorsystem för annat än fritidsaktiviteter men för den genomsnittliga konsumenten som sätter igång speldatorn efter en lång arbetsdag så har energiförbrukningen minimalt genomslag på ens kostnader.

Effektförbrukning vid recensioner tycker jag fortfarande ska mätas men jag blir väldigt fundersam kring den negativa vikten man lägger vid komponenters effektförbrukning i diskussioner på internet då den i regel har minimal inverkan på kunders kostnader och ekonomi (iaf utifrån en svensk kontext). Känner att man i regel bör vinkla den diskussionen på att det ofta krävs av konsumenten att prioritera kylningslösningar i systembygget lite annorlunda än vid ett lågeffektsbygge vilket kan påverka prisbilden istället.

Du kan inte bara räkna med elpriset på 28 öre...
Elnätsavgiften ligger i Sverige mellan 51 öre / kWh till om du har otur att bo i bergs kommun i Jämtland 151 öre /kWh.
Sen har du skatt på elpriset. Räkna som lägst på 1 kr /kWh. Medelvärde på 1.5 kr/kWh och som dyrast lite över 2 kr /kwh

Permalänk
Medlem
Skrivet av Dr0st:

Hur menar du? Sen när måste man ha samma fps som skärmens hz? Det är enorm skillnad i flyt på 400fps 60hz och 60fps 60hz...

Ja skillnaden är enorm för du jämför två extremer, 60fps vs 400fps. Nu snackar vi ju om att du mår illa av allt under 170-200fps vilket jag tycker låter märkligt.

Permalänk
Medlem
Skrivet av Schiznit:

Ja skillnaden är enorm för du jämför två extremer, 60fps vs 400fps. Nu snackar vi ju om att du mår illa av allt under 170-200fps vilket jag tycker låter märkligt.

Skillnaden är nog så stor mellan 60 och 200 också. Får ont i huvudet vilket gör att man blir illamående efter en stund...noteras ska att jag nästan uteslutande spelar väldigt snabba fps-spel ala quake, doom (och nu serious sam 4). För andra genre fungerar det bättre såklart.

Visa signatur

Dator: i9 12900K @5.2 all core, Arctic Freezer II 420mm, Asus Z690 Hero, 32gb 6000MHZ CL34 DDR5, Asus RTX 3090 TUF OC , Asus Strix 1000w Nätagg, 1x1TB NVME Systemdisk, 2x500GB NVME Gamingdiskar, Fractal Meshify 2 XL, 32" Samsung Odyssey G7 240hz

Permalänk
Medlem

Är det någon som fått sitt TUF OC från Webhallen? Jag beställde 15 sek över 15.00 och då stod det 10 på väg men nu står det att de inte har den blekaste om när de får in kort.

Visa signatur

Dator: Lian Li O11 Dynamic, R9 5900X, MSI X570 ACE, Corsair H150i Pro, G.Skill TridentZ@3733MhzCL16, ASUS RTX 3090 TUF OC, Firecuda 530 2TB, 990 Pro 2TB, Corsair RM850x.
Skärm: LG OLED 42C2

Permalänk
Medlem
Skrivet av Markusas:

Är det någon som fått sitt TUF OC från Webhallen? Jag beställde 15 sek över 15.00 och då stod det 10 på väg men nu står det att de inte har den blekaste om när de får in kort.

Det här med att det stod "xx i lager" när man la beställning betyder ingenting för systemet hängde inte med att uppdatera saldo. Så den biten ska man nog inte lägga så mycket vikt vid.

Permalänk
Medlem
Skrivet av DevilsDad:

Vad exakt menar du med "har stöd för 8k gaming"? Alla grafikkort kan rendera bilder i 8k, det handlar bara om hur många bilder per sekund de klarar av att rendera. Det relativa prestandatsppet när du går från 4k till 8k lär vara snarlikt för 3080 och 3090.

Alla?

Är det fel i den här faktarutan?
https://www.pctechreviews.com.au/2020/06/04/reviewed-amds-rad...

Permalänk
Medlem
Skrivet av Schiznit:

Det här med att det stod "xx i lager" när man la beställning betyder ingenting för systemet hängde inte med att uppdatera saldo. Så den biten ska man nog inte lägga så mycket vikt vid.

Fanns inga i lager vid lansering. Stod bara 10 på g.

Visa signatur

Dator: Lian Li O11 Dynamic, R9 5900X, MSI X570 ACE, Corsair H150i Pro, G.Skill TridentZ@3733MhzCL16, ASUS RTX 3090 TUF OC, Firecuda 530 2TB, 990 Pro 2TB, Corsair RM850x.
Skärm: LG OLED 42C2

Permalänk
Medlem
Skrivet av DevilsDad:

Vad exakt menar du med "har stöd för 8k gaming"? Alla grafikkort kan rendera bilder i 8k, det handlar bara om hur många bilder per sekund de klarar av att rendera. Det relativa prestandatsppet när du går från 4k till 8k lär vara snarlikt för 3080 och 3090.

Exakt vad jag menar är det Nvidia skriver, men kanske bara säljargument.
"GeForce RTX 3090 är världens första grafikkort där du kan spela, spela in och titta i 8K HDR."
Men jag började mitt inlägg med har jag missförstått nånting för att jag vill argumentera, mest för att jag är förvirrad av allt det här nu.

Typo
Permalänk
Medlem
Skrivet av Lagerlöf:

70 % av alla spelare på steam kör fortfarande 1080p.

Finns det ens någon som spelar på 8K?

Haha, ingen aning.