Geforce RTX 4070 Ti uppges möta RTX 3090 Ti

Permalänk
Medlem
Skrivet av Kaleid:

Yes. Ska inte impulsköpa något på direkten.

Ska inte smutsa ner tråden för mycket med deras kontring, men finns det några rykten att gå på? Eller har jag bara missat en massa nyheter?

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Medlem

Jag blir endast halvhypad av vilka spel som kan komma kräva detta.

Jag gillar så klart maxad grafik, men upplever att Xbox, PS och annat håller tillbaka vad som egentligen erbjudes de med ett bra grafikkort.

Utvecklingstakten på hårdvaran är fortfarande "för bra" för spelbranschen ska våga hålla takten, "uppåt".

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Moderator
Testpilot
Skrivet av the squonk:

Samma prestanda till samma effekt uttag är 0 teknisk utveckling, handlar mer om upplevd produktplacering om denna kommer säljas mycket billigare

Inte nödvändigtvis. Det kan vara så att 5 nm lider av mycket läckage vilket betyder att mer effekt blir spill kontra 8 nm. Jag har för mig att jag läst att just det är största problemet med dessa nutida noder. Vi är ju nära gränsen för vad Kisel klarar av vad jag förstått.

Sen kan det också vara så att Nvidia kör dessa chipp lite för långt förbi "sweet spot". Så kombination blir detta.

Sist men inte minst. Så kommer AD104 vara en mindre kärna än GA102. Så samma prestanda till mindre yta vilket innebär lägre kostnad. Iaf för Nvidia. Jag är mycket skeptiskt till att vi konsumenter kommer få så mycket glädja av de kostnadsbesparingarna.

Jag förutspår att ett 4070 Ti kommer ligga kring 8-9k.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - LG 45GR95QE 45" UltraWide OLED 3440x1440p@240Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av BergEr:

Fast nu jämför du helt olika saker. Artikeln pratar om att 4070 Ti (troligen ett $600-700 kort) slår ett 3090 Ti (MSRP i Sverige för detta kort var 24000 men lägsta började kring 28000).

Mer rättvist är att du kollar på 4070 Ti vs 3070 Ti och det ser ut som att vi där får en ökning i prestanda på över 50% men inte 50% ökning i hur mycket effekt kortet tar.

Och jag sitter på ett 980 som du kunde se när du svarade.

Ett 4080 lär vara över 300% snabbare än mitt 980 men bara ta 50-80% mer effekt när man kör i 100%. Så i verkligheten lär jag nå mina fpsspärrar på 162 fps i alla spel och fortfarande använda mindre effekt än jag gör för 60 fps på mitt 980

Det va bara jag som måste ha läst fel att ett 4070ti skulle dra mer än ett 3090ti men prestera typ samma.

Permalänk
Medlem

Klassiska överhypen, sen slutar det som 2000 och 3000 serie. Folk stannar än idag på 2080 ist för att skaffa 3000 "som är så mycket bättre"..

Visa signatur

* 🖥️ 7800X3D | B650 | 32GB | 7900XTX | 27" 16:9
* ⌨️ G915 | 🖱️ G Pro X Superlight | 🎧 Logitech Pro X | 🖥️ Predator XB273UGX

Permalänk
Medlem
Skrivet av Cerd Moyen:

6900XT är väl inte så långt efter RTX 3090 i vissa prestandatest och drar typ 50W mindre. Mot den bakgrunden ska 7800XT med lätthet gå förbi och inte dra mer än max 300W.

Min poäng är att en jämförelse mellan 3090ti på 450W och 4070ti på 300W låter ju kanonbra tills man inser att 3090 har 5% mindre prestanda och drar bara 350W. Därför är jag inte imponerad om 4070ti skulle dra lika mycket som ett 3090 om prestandan är likadan. Håller det sig på 300W är det fine och jag tror också det är där Nvidia lägger sig.

Sen kan man ju såklart vrida på det och jämföra 3070ti med 4070ti, 70% snabbare och drar bara 10W mer. Då låter det självklart bättre än min jämförelse med 3090.

Visa signatur

f0rest stan | Citera mera | Ryzen 9600X - ASUS Prime 9070 XT

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Logiskt att Nvidia inte fokuserar på att förbättra prestanda/Watt då prestanda/Watt var tillräckligt bra för att användas i kryptofarmar senast.
Använder man samma måttstock, så borde ju ett 4050 prestera som ett 3070 som presterar som ett 2080Ti.
Kul med en nästan 50% bump i prestanda, den stora frågan är väl då prestanda/pris. Om inte kärlekssnöret blir bättre än turandet eller AM-Pelle så blir det ändå inget köp.

Det är ju mindre lönsamt att gräva fantasivaluta idag så dom måste ju upp i prestanda / watt för att få sälja igen och boosta kvartalsrapporterna!

Visa signatur

DATOR i bruk: ASUS ROG STRIX B550-F Gaming, Ryzen 7 5900X. 4x16 GB Ballistix MAX RGB @ 3800 MT/s 16-17-18-34-51 (1T)/~58 ns. MSI RTX 4090 Ventus x3. Samsung 980 Pro 1 TB. EK AIO Elite 360.
#ryssjävlar

Permalänk
Medlem
Skrivet av magma86:

Ny vecka, nya twitterinlägg och medföljande rykten.

Blir att använda frame taget flitigt om det stämmer med strömhungrigare kort

Jag gillar rykten. Hade varit så tråkigt utan dessa

Permalänk
Inaktiv
Skrivet av Gender Bender:

Energieffektivt grafikkort kommer inte göra något för din elräkning om priset per kilowattimme kommer chockhöjas. Skräckscenariot som man befarar nu är 10 kr/kWh och avstängd ström i södra Sverige när/om Ryssland stryper gasen till Europa i vinter. Elen kostade nästan 10 kr/kWh under en timme i våras i elområde 4, så det är inte omöjligt att vi kommer se samma priser under längre perioder i vinter.

Ganska billig hobby ändå även om speldatorer skulle börja dra en kilowatt i spel (och det är långt dit än).

Permalänk
Medlem
Skrivet av Kladdpapper:

Jag gillar rykten. Hade varit så tråkigt utan dessa

Samma här. Brukar ju följa flertalet kanaler på youtube som oftast prickar rätt (Moores law is dead och redgamingtech).

Visa signatur

Ryzen 7 5800x, lg 27gl850, rx 9070 xt

Permalänk
Avstängd
Skrivet av RVX:

Ska inte smutsa ner tråden för mycket med deras kontring, men finns det några rykten att gå på? Eller har jag bara missat en massa nyheter?

Generellt så är tillverkare lite för bra på att hajpa upp sina produkter innan release vilket leder till att många impulsköper på direkten. Tycker man ska motstå denna frestelse.
Jag räknar med att Nvidia fortfarande blir kung på RT men lika bra få saker ordentligt bekräftade.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem
Skrivet av Gender Bender:

Energieffektivt grafikkort kommer inte göra något för din elräkning om priset per kilowattimme kommer chockhöjas. Skräckscenariot som man befarar nu är 10 kr/kWh och avstängd ström i södra Sverige när/om Ryssland stryper gasen till Europa i vinter. Elen kostade nästan 10 kr/kWh under en timme i våras i elområde 4, så det är inte omöjligt att vi kommer se samma priser under längre perioder i vinter.

10kr/kWh? Det är ju helt sjukt! 7000kr/mån bara för att köra ett enda konvektorelement (2k watt). Får hoppas det blir en mild vinter.

Permalänk
Medlem
Skrivet av anon201296:

Ganska billig hobby ändå även om speldatorer skulle börja dra en kilowatt i spel (och det är långt dit än).

Vi är redan där och med dagens elpriser, så blir det billigare att gå till arkadhallen.

Visa signatur

*5800X|B550M|64GB|RX7800XT|GX750W|Core V21|280AIO|2TB+2TB|1440p 240Hz

AMD Ryzen 7 @4,95GHz|Gigabyte Aorus Elite(rev1.3)|Corsair 2x32 LPX Vengeance 2666C16 @3600C20|Asus DUAL OC @990mV, 3,2/2,6GHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 4.0x4 Samsung 980 Pro 7000/5100 + 2,5" HDD Toshiba 1TB & Seagate 1TB i RAID 0|Acer Nitro XV272Uz 27" IPS 270Hz @240Hz.

Permalänk
Inaktiv
Skrivet av Fenrisulvfan:

Vi är redan där och med dagens elpriser, så blir det billigare att gå till arkadhallen.

Rtx 3090 och en värstingprocessor drar under 600W i spel, inte 1000w.

Permalänk
Medlem
Skrivet av Kaleid:

Generellt så är tillverkare lite för bra på att hajpa upp sina produkter innan release vilket leder till att många impulsköper på direkten. Tycker man ska motstå denna frestelse.
Jag räknar med att Nvidia fortfarande blir kung på RT men lika bra få saker ordentligt bekräftade.

Jo sår det nog, Rayrracing delen kommer dom inte vara hotade direkt på på flera år känns det som.
Spännande detta.

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Medlem
Skrivet av sAAb:

Jag blir endast halvhypad av vilka spel som kan komma kräva detta.

Jag gillar så klart maxad grafik, men upplever att Xbox, PS och annat håller tillbaka vad som egentligen erbjudes de med ett bra grafikkort.

Utvecklingstakten på hårdvaran är fortfarande "för bra" för spelbranschen ska våga hålla takten, "uppåt".

Det är snarare PC (och föregående konsolgeneration) som håller tillbaka grafiken i så fall. Ingen utvecklar spel enkom för förhållandevis få high-end PC användare. Oavsett så är ju grafik högst skalbart så enklare doningar håller inte tillbaka så mycket som man kanske kan tro.

Det är främst tid och pengar (och talang...) som håller tillbaka. Se på animation t.ex. PS4 liret Last of us 2 åker i åttor runt det mesta på PC (och nuvarande konsoler) här.

Men som sagt, handlar mer om pengar än teknik. Grafik är idag så avancerat att produktionskostnaderna skenar om man ska göra nått riktigt saftigt.

Permalänk
Medlem
Skrivet av sAAb:

Jag blir endast halvhypad av vilka spel som kan komma kräva detta.

Jag gillar så klart maxad grafik, men upplever att Xbox, PS och annat håller tillbaka vad som egentligen erbjudes de med ett bra grafikkort.

Utvecklingstakten på hårdvaran är fortfarande "för bra" för spelbranschen ska våga hålla takten, "uppåt".

Jag försöker snarare anpassa grafikkortsköpet till vilken skärm man har (förutsatt att man vill maxa grafiken och använda skärmen fullt ut. Sitter man på en 1080p/144Hz kommer man ju fortfarande billigt undan men sitter man på tex 4K och kanske dessutom 144Hz så är det en helt annan femma. Egentligen finns det inget grafikkort idag som kan driva alla spel i 4K/144fps utan problem och så har det historiskt alltid varit. Skärmtillverkarna ligger ett eller flera steg före grafikkorten samtidigt som spelen blir allt snyggare och mer krävande.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 5090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM1000x | Antec Flux Pro | MSI 321URX QD-OLED | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem
Skrivet av anon201296:

Rtx 3090 och en värstingprocessor drar under 600W i spel, inte 1000w.

Beror på vilket spel, slå på lite RTX skall du se att Watten drar iväg. Får ett 3070 att dra över 300W i tex Quake RTX.

Körde 3080 på en rigg med 650W agg av välrenommerat märke när jag testade lite saker, i tex Borderlands 3 var jag tvungen att minska power limit för 3080 för att inte PSU skulle stänga av. Har 850W på mina andra burkar dom klarar 3080 utan problem, men dom kanske skulle stänga av med ett 3090Ti eller 4080.

Visa signatur

9950X3D X870E HERO 96/6400c30/2200 RTX5090 Gaming OC || 7950X B650 Gaming Plus WIFI 32/6000c30 RTX5080 TUF OC(450w) UBUNTU || 12900KF Z690 Tomahawk WIFI 64/3600c16 Gear1 RTX4080 Ventus 3X OC(400W) || 5900X(B2) B550-F 32/3800c18 RTX3080 TUF OC V2 || 5800X3D CH VIII EXT. 32/3800c18 RTX3080 Gaming OC || 3700X X570 HERO 32/3000c16 RTX3070 FTW3 Ultra || Thinkpad P16s G2 PRO7840U 32/6400

Permalänk
Inaktiv
Skrivet av the squonk:

Beror på vilket spel, slå på lite RTX skall du se att Watten drar iväg. Får ett 3070 att dra över 300W i tex Quake RTX.

Körde 3080 på en rigg med 650W agg av välrenommerat märke när jag testade lite saker, i tex Borderlands 3 var jag tvungen att minska power limit för 3080 för att inte PSU skulle stänga av. Har 850W på mina andra burkar dom klarar 3080 utan problem, men dom kanske skulle stänga av med ett 3090Ti eller 4080.

Optimum tech körde RTX 3080 och överklockad 10900k med sfx600 psu och det fungerade bra även om det inte är något att rekommendera. Tror det var battlefield v som drog mest av de spelen han testade, jag gissar eftersom cpun använder avx i just det spelet för grafikkortet drar ganska lika i alla spel där det faktiskt nyttjas fullt ut.

Permalänk
Medlem
Skrivet av sAAb:

Jag blir endast halvhypad av vilka spel som kan komma kräva detta.

Jag gillar så klart maxad grafik, men upplever att Xbox, PS och annat håller tillbaka vad som egentligen erbjudes de med ett bra grafikkort.

Utvecklingstakten på hårdvaran är fortfarande "för bra" för spelbranschen ska våga hålla takten, "uppåt".

PS4 och Xbox One hade Jaguar vilket var ett super-duper budgetklassad CPU-Familj. Samt att GPUerna var i liknelse 7790 och 7850 vilket också var låg-mellanklass grafikkort.

Nu med NAVI (6800xt) och Zen 2 för PS5 och Series X så är flaskhalsen verkligen mindre än föregående.

Visa signatur

Fractal Design Pop XL Air RGB | ASRock Z690 Taichi | i5-12600k | Corsair 32GB (2x16GB) DDR5 6000MHz CL30 | Gigabyte RTX 5070 12GB Gaming OC

Nintendo Switch | PlayStation 5 +PS4 Pro | Xbox Series X + One X
Min FZ Profil

Permalänk
Medlem
Skrivet av anon201296:

Optimum tech körde RTX 3080 och överklockad 10900k med sfx600 psu och det fungerade bra även om det inte är något att rekommendera. Tror det var battlefield v som drog mest av de spelen han testade, jag gissar eftersom cpun använder avx i just det spelet för grafikkortet drar ganska lika i alla spel där det faktiskt nyttjas fullt ut.

NU är SFX600 en high end PSU även om den "bara" är på 600W, och förmodligen hade han tur också, Borderlands 3 som fick min PSU att stänga av är dock extremt grafiskt krävande. AMD använde det som skrytspel så sent som vid lanseringen av 6900XT.

Poängen är att många kommer att behöva köpa nya PSU och 1000W kommer att betraktas som midrange

Visa signatur

9950X3D X870E HERO 96/6400c30/2200 RTX5090 Gaming OC || 7950X B650 Gaming Plus WIFI 32/6000c30 RTX5080 TUF OC(450w) UBUNTU || 12900KF Z690 Tomahawk WIFI 64/3600c16 Gear1 RTX4080 Ventus 3X OC(400W) || 5900X(B2) B550-F 32/3800c18 RTX3080 TUF OC V2 || 5800X3D CH VIII EXT. 32/3800c18 RTX3080 Gaming OC || 3700X X570 HERO 32/3000c16 RTX3070 FTW3 Ultra || Thinkpad P16s G2 PRO7840U 32/6400

Permalänk
Medlem
Skrivet av Bankai:

Ser mycket framemot 4000-serien, ser mindre framemot elräkningarna i vinter.

Ingen fara, det blir elransonering i vinter.

Visa signatur

Skriv jätteintressant information här.

Permalänk

Det är en massa fantasi prestanda siffror i omlopp. Det är inte intressant vad kortet heter etc, det som är intressant är vad kortet kostar för prestandan. Om exempelvis en RTX 4070 TI skulle slå en RTX 3090 TI men RTX 4070 TI skulle kosta som en RTX 3070 TI, sånt kan man bara drömma om, eftersom då blir det samma brist på grafikkort som det var tidigare, eftersom med det förhållandet för pris/prestanda så skulle RTX 4070 TI bli intressant för mining igen, så då skulle samma grafikkort brist skapas som tidigare (sedan brukar TI varianter komma senare så och Nvidia skulle knappast börja lanseringen med RTX 4070 TI).

Permalänk
Medlem

Lita på att Nvidia kommer att försöka hålla uppe priserna, det var lite vad JayZ var inne på härom veckan, ingen idé att vänta nu när priserna har gått ner om det finns en gpu som klarar den prestanda som du behöver

Jag sitter "bara" på 3440x1440@144 och behöver egentligen inte mer än en 3080, om dom nya gpuerna sen är 40% bättre så behöver jag det egentligen inte förrän jag byter skärm i framtiden

Visa signatur

9950X3D X870E HERO 96/6400c30/2200 RTX5090 Gaming OC || 7950X B650 Gaming Plus WIFI 32/6000c30 RTX5080 TUF OC(450w) UBUNTU || 12900KF Z690 Tomahawk WIFI 64/3600c16 Gear1 RTX4080 Ventus 3X OC(400W) || 5900X(B2) B550-F 32/3800c18 RTX3080 TUF OC V2 || 5800X3D CH VIII EXT. 32/3800c18 RTX3080 Gaming OC || 3700X X570 HERO 32/3000c16 RTX3070 FTW3 Ultra || Thinkpad P16s G2 PRO7840U 32/6400

Permalänk
Medlem
Skrivet av Vangen:

PS4 och Xbox One hade Jaguar vilket var ett super-duper budgetklassad CPU-Familj. Samt att GPUerna var i liknelse 7790 och 7850 vilket också var låg-mellanklass grafikkort.

Nu med NAVI (6800xt) och Zen 2 för PS5 och Series X så är flaskhalsen verkligen mindre än föregående.

6600XT är den GPU i nuvarande line-up som får sägas ligga närmast PS5.

Permalänk
Skrivet av the squonk:

Lita på att Nvidia kommer att försöka hålla uppe priserna, det var lite vad JayZ var inne på härom veckan, ingen idé att vänta nu när priserna har gått ner om det finns en gpu som klarar den prestanda som du behöver

Jag sitter "bara" på 3440x1440@144 och behöver egentligen inte mer än en 3080, om dom nya gpuerna sen är 40% bättre så behöver jag det egentligen inte förrän jag byter skärm i framtiden

JayZ? Antar du menar J2C. Han sa att 4000-serien inte kommer lanseras förrän nästan sommar. Han är antingen helt blåst eller så är han betald av någon, och priserna har gått ner rejält sedan han sa åt folk att köpa. De som lyssnade på honom härom veckan har förlorat 150 dollar än så länge, och de som lyssnade på honom i vintras har förlorat ännu mer.

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk
Medlem

Ja, J2C, whatever. Jag menade inte att han hade rätt, men poängen är att vi inte har en aning om vad dom nya gpu kommer att kosta det enda vi vet är att Nvidia gillar att mjölka.
Det är inte omöjligt att 30-serien kommer att rasa ännu mer, eller att folk kommer att paniksälja, gick ju att köpa en 2080Ti beg för 5k när 30-serien kom. Kan säkert hända något liknande nu, men behöver man prestandan nu och inte är extremt begränsad av budget så finns det en poäng i att köpa även om det kommer något billigare sen.

Visa signatur

9950X3D X870E HERO 96/6400c30/2200 RTX5090 Gaming OC || 7950X B650 Gaming Plus WIFI 32/6000c30 RTX5080 TUF OC(450w) UBUNTU || 12900KF Z690 Tomahawk WIFI 64/3600c16 Gear1 RTX4080 Ventus 3X OC(400W) || 5900X(B2) B550-F 32/3800c18 RTX3080 TUF OC V2 || 5800X3D CH VIII EXT. 32/3800c18 RTX3080 Gaming OC || 3700X X570 HERO 32/3000c16 RTX3070 FTW3 Ultra || Thinkpad P16s G2 PRO7840U 32/6400

Permalänk
Skrivet av the squonk:

Ja, J2C, whatever. Jag menade inte att han hade rätt, men poängen är att vi inte har en aning om vad dom nya gpu kommer att kosta det enda vi vet är att Nvidia gillar att mjölka.
Det är inte omöjligt att 30-serien kommer att rasa ännu mer, eller att folk kommer att paniksälja, gick ju att köpa en 2080Ti beg för 5k när 30-serien kom. Kan säkert hända något liknande nu, men behöver man prestandan nu och inte är extremt begränsad av budget så finns det en poäng i att köpa även om det kommer något billigare sen.

Det håller jag med om.

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk
Medlem

Låter ju bra rent spontant. Dock så hade ju 3090 ganska blygsamma prestandavinster i spel ställ mot 3080 så att 4070 kommer kunna prestera i den nivån ställt mot föregående generation är väl ändå ganska normalt?

Visa signatur

| Ryzen 5800x | Asus prime x470 pro | Sapphire 9070xt pulse| Gskill 32gb 3,6ghz | aw3225qf |

Permalänk
Medlem

Det blir sannolikt att hoppa över denna generation (åtminstone Nvidia). Får hoppas på kraftigt förbättrad energieffektivitet i någon senare generation.

Visa signatur

9950X3D | 5080