Nvidia Geforce RTX 4070 – energieffektiv och kompakt

Permalänk
Medlem

Frågan är vart 7800 xt och 7700 xt är någonstans? Väntar de med att tömma lagren av 6000-serien först?

Visa signatur

Ryzen 7 5800x, lg 27gl850, rx 7800 xt

Permalänk
Medlem
Skrivet av magma86:

Frågan är vart 7800 xt och 7700 xt är någonstans? Väntar de med att tömma lagren av 6000-serien först?

Ryktet säger juni ihop med Kinas "black friday"

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av magma86:

Frågan är vart 7800 xt och 7700 xt är någonstans? Väntar de med att tömma lagren av 6000-serien först?

Navi 32 är utlovad till första halvåret 2023, vilket i 10 fall av 10 betyder att den kommer i juni. AMD kan välja att göra en tier 3 av Navi 31 om de vill, på samma sätt som Radeon Pro W7800 (70 CU, 16GB minne). Det är en del som tror det, men det finns inga rykten år det hållet.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av mpat:

Navi 32 är utlovad till första halvåret 2023, vilket i 10 fall av 10 betyder att den kommer i juni. AMD kan välja att göra en tier 3 av Navi 31 om de vill, på samma sätt som Radeon Pro W7800 (70 CU, 16GB minne). Det är en del som tror det, men det finns inga rykten år det hållet.

Förstår att ryktet finns med tanke på W7800 . Man kan hoppas även om att skära ner så extremt på chipet i konsument låter extremt dyrt och pengar slösande . Som arbetskort där man tar 2400 dollar visst men säg 599-699 dollar ......Samtidigt 60 CU låter inte så roligt med tanke på dom få % IPC ökningar denna serien hade .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av sKRUVARN:

Varför skriver du vinstmarginal men referrerar till bruttoresultat?

Vinstmarginalen för 2022 landade på 16%, lägsta sen pascal lanserades (topnoteringen under ett kvartal är under Pascal på nästan 38%).

My bad. Justerar inlägget till burttovinst som bör vara rätt översättning

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem
Skrivet av sKRUVARN:

Varför skriver du vinstmarginal men referrerar till bruttoresultat?

Vinstmarginalen för 2022 landade på 16%, lägsta sen pascal lanserades (topnoteringen under ett kvartal är under Pascal på nästan 38%).

Vart hittar du information om vinstmarginalen? EBITDA* ökade med 92% från 2021-2022 och dippade i år, men vi får väl se vart vi hamnar vid årsskiftet.
"NVIDIA 2022 annual EBITDA was $11.215B, a 99.2% increase from 2021"
https://www.macrotrends.net/stocks/charts/NVDA/nvidia/revenue

Tror vi kommer in på väldigt mkt teknikaliteter till slut av bolagsanalys, vinstmarginal kan ju minska om dem tex gör stora investeringar, betalar tillbaka lån osv. Att dem tar bättre betalt än någonsin tidigare är nog svårt att argumentera bort

* = resultatet före ränteintäkter och räntekostnader, skatter, avskrivningar på materiella tillgångar och avskrivningar på immateriella tillgångar

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem
Skrivet av Swedishchef_90:

Och deras vinst sker mestadels inom AI/företag där vinst marginalen är avsevärt högre.
Om du skulle kolla deras Gaming segment så ser du att % är avsevärt lägre

Skulle gärna vilja hitta segmenterad data per produktkategori, men inte lyckats hitta nått vettigt Länkar gärna om du har.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem
Skrivet av BrottOchStraff:

Skulle gärna vilja hitta segmenterad data per produktkategori, men inte lyckats hitta nått vettigt Länkar gärna om du har.

Det står i text
"Data Center

Fourth-quarter revenue was $3.62 billion, up 11% from a year ago and down 6% from the previous quarter. Fiscal-year revenue rose 41% to a record $15.01 billion."

"Gaming

Fourth-quarter revenue was $1.83 billion, down 46% from a year ago and up 16% from the previous quarter. Fiscal-year revenue was down 27% to $9.07 billion"

https://nvidianews.nvidia.com/news/nvidia-announces-financial....

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av ottoblom:

Förstår att ryktet finns med tanke på W7800 . Man kan hoppas även om att skära ner så extremt på chipet i konsument låter extremt dyrt och pengar slösande . Som arbetskort där man tar 2400 dollar visst men säg 599-699 dollar ......Samtidigt 60 CU låter inte så roligt med tanke på dom få % IPC ökningar denna serien hade .

Oftast gör AMD konsument-kort som motsvarar proffskorten. Inte alltid, men oftast. Dessutom fanns ju 6800 vanilla som var nedskuret ungefär lika mycket. Jag tror dock inte så mycket på det själv - jag tror att det proffskortet finns för att använda upp de chip som ändå blir så trasiga och att de inte får så många sådana, och ryktet var ju att AMD ångrade 6800 - men vi får väl se.

Den andra biten av detta är att Navi 32 enligt alla rykten skall klockas högre, och då bör den krocka med en nedkapad Navi 31.

Visa signatur

5900X | 6700XT

Permalänk
Datavetare
Skrivet av BrottOchStraff:

Finns det något hinder hårdvarumässigt i att rx 2000 och 3000 kort får DLSS 3? Eller är det bara nvidia som inte vill ?

Läser man "på nätet" finns det flera som nämner att även Ampere skulle kunna använda DLSS 3 då även den har HW-stöd för Optical Flow Accelerator (OFA). Redan Turing har OFA-stöd, men det är mer begränsat jämfört med Ampre så är nog väldigt osannolikt att Turing är kapabel till att köra DLSS 3.

Gissar att (i alla fall vissa av) de som hävdar att stödet hade kunna implementerats även i Ampere har kikat i NVOFA Programming Guide och konstaterat att det inte finns någon funktion som kräver Ada, däremot finns ett par saker som kräver Ampere eller senare.

Ovan är fortfarande ingen garanti, eller "bevis", för att Ampere och Ada är funktionellt ekvivalent. Fullt möjligt att NVOFA i nuläget bara stödjer Ada, men att man ännu inte lagt in Ada-specifika funktioner.

Vidare är DLSS 3 långt smalare i scope och Nvidia har ju access till sin HW på ett helt annat sätt än de som går via en SDK, så kan mycket väl finnas DLSS 3 specifika saker i OFA för Ada.

Men anta att Ampere och Ada är helt funktionellt ekvivalent med avseende på OFA. Den mest detaljerade beskrivningen kring DLSS 3 jag hittat så här långt är Nvidias whitepaper
NVIDIA ADA SCIENCE - How Ada advances the science of graphics with DLSS 3

En sak som explicit nämns där är att OFA inte är helt fristående/självgående i Turing, så det är ännu en sak som nog diskvalificerar just Turing för tekniken.

Men en annan sak som återkommer flera gånger där är att DLSS 3 är en realtidsfunktion, d.v.s. en kritiskt funktion hos HW är att OFA måste vara "tillräcklig snabb" för att hinna göra alla erforderliga beräkningar i tid för att rendera "mellanbilden". Hinner man inte det blir hela DLSS 3 funktionen mer än poänglös, i det läget tillför den inget positivt samtidigt som den ökar latens.

OFA är rätt ordentligt mycket snabbare hos Ada jämfört med Ampere. Men om det är enda begränsningen är det ju möjligt för Nvidia att lägga till DLSS 3 stöd till Ampere.

DLSS 3 har två saker den kan hjälpa till med: endera kan man dubbla FPS med samma CPU-last, detta är nog inte realistiskt på Ampere givet OFA-prestanda. Alternativ kan man halvera CPU-lasten vid bibehållen FPS, fullt möjligt att Ampere skulle kunna fixa det (men detta medför högre input-latency, så inte helt utan nackdelar).

TL;DR är nog ändå, verkar vara tekniskt möjligt att ge någon form av DLSS 3 stöd på Ampere men man ska nog inte hålla andan medan man väntar på att det ska lanseras då det finns relevanta HW-begränsningar i Ampere.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Är det värt att uppgradera ifrån ett RTX 2080 Super?

Permalänk
Medlem
Skrivet av BrottOchStraff:

My bad. Justerar inlägget till burttovinst som bör vara rätt översättning

Både bruttovinst och bruttoresultat syftar på samma sak, där går fint att använda vilket som. Personligen gillar jag bruttoresultat bättre eftersom jag tycker det är konstigt att tänka på något som "vinst" när man inte ens räknar in saker som löner osv.

Skrivet av BrottOchStraff:

Vart hittar du information om vinstmarginalen?

Det är ju bara att ta nettovinst och dela på omsättningen, microtrends som du länka innan har även data för detta:

https://www.macrotrends.net/stocks/charts/NVDA/nvidia/net-pro...

FYI så är siffrorna inte kvartalsvis även om det ser ut så, ser ut som att det är siffror räknat på en 12m period räknat från varje kvartalsrapport. Jag kollade direkt från nvidias siffror.

Citat:

Tror vi kommer in på väldigt mkt teknikaliteter till slut av bolagsanalys, vinstmarginal kan ju minska om dem tex gör stora investeringar, betalar tillbaka lån osv.

Men det där var ingen teknalitet, vinstmarginaler (som du skrev) och bruttoresultat är ju fundamentalt helt skilda saker, bruttoresultatet kan öka samtidigt som ditt företag går med förlust, den kan även öka samtidigt som marginalen går ner. Sen är det nog bruttomarginal du är ute efter (gross margin) om du vill kolla på produkternas lönsammhet över tid.

Citat:

Att dem tar bättre betalt än någonsin tidigare är nog svårt att argumentera bort

Eftersom senaste kvartalsrapporterna inte visar toppnoteringar på varken brutto eller vinstmarginal så går det absolut att göra. Med det sagt så låg bruttmarginalen senaste rapporten på 63%, det är med historiska mått fortfarande väldigt högt (Q2 var nere på 46%, det lägsta på över 10 år). Sen som nämnts tidigare så har nvidia ändrats ganska rejält på senare år, större och sörre andel av omsättningen kommer från datacenter segmentet, samtidigt som man i princip inte säljer low-end längre, så det är väldigt svårt att dra slutsatser om marginaler i GeForce-segmentet från dessa siffror oavsett.

Sen så tjänar Nvidia en jäkla massa pengar, det kan man inte direkt argumentera bort, och det kommer säkert öka, och produkter som t ex 4080 har helt klart fått ett betydligt högre pris enbart för att inte underminera restlager av 3000-serien, men personligen tror jag att dom aldrig kommer nå vinstmarginalerna dom lyckades komma upp i under 2018 och 2021 igen.

Permalänk
Medlem

Funderade på att köpa detta kort för de nästa 5 åren. Men samtidigt är det många som säger att 12GB VRAM inte är framtidssäkert då vi nu börjar få konsolspel av senaste generationen som använder 12-13GB VRAM när de byggs. Alltså skulle jag nu köpa ett kort som har för lite VRAM om optimeringar på mjukvarusidan för PC inte tillkommer. Där man antagligen får offra lite prestanda för att få ner VRAM användningen jämfört med spelet som designat.

Förstår jag de närmaste åren korrekt när inget kort över 4050/4060 borde ha under 14GB VRAM? Att denna lansering av 4070 ser bra ut på pappret men sannolikt kommer prestera dåligt i AAA titlar på 1440 framöver?

Att om jag kan välja mellan snabbt VRAM eller mycket VRAM så borde jag luta åt mer för mellansegmentet?

Permalänk
Medlem
Skrivet av Sosseres:

Funderade på att köpa detta kort för de nästa 5 åren. Men samtidigt är det många som säger att 12GB VRAM inte är framtidssäkert då vi nu börjar få konsolspel av senaste generationen som använder 12-13GB VRAM när de byggs. Alltså skulle jag nu köpa ett kort som har för lite VRAM om optimeringar på mjukvarusidan för PC inte tillkommer. Där man antagligen får offra lite prestanda för att få ner VRAM användningen jämfört med spelet som designat.

Förstår jag de närmaste åren korrekt när inget kort över 4050/4060 borde ha under 14GB VRAM? Att denna lansering av 4070 ser bra ut på pappret men sannolikt kommer prestera dåligt i AAA titlar på 1440 framöver?

Att om jag kan välja mellan snabbt VRAM eller mycket VRAM så borde jag luta åt mer för mellansegmentet?

Det är möjligt att du behöver 16GB VRAM för att spela på nivån Ultra om fem år, men inte fanken kommer det att vara omöjligt att spela med det. Du får dra ner texturerna ett hack bara.

Nu vet vi ju i princip vad AMD och Nvidia kommer att erbjuda för minne i nästan hela segmentet. X060 är Nvidias volymkort, och de lär få 8GB minne den här generationen. AMD erbjuder sannolikt 12GB i den prisklassen - tänker mig att de kör Navi 32 XL med 12GB minne mot 4060 - men de har också 8GB ett hack ner på Navi 33. De allra flesta som köper kort det här generationen kommer att hamna på 8GB, och inte kommer de som optimerar spel att lämna alla de spelarna med en dålig upplevelse.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Jag uppgraderade just brorsans dator med ett RTX 4070. Det är bra mycket snabbare på ray tracing än mitt Radeon RX 6950 XT men det ligger klart efter i övrigt.

Permalänk
Medlem
Skrivet av mpat:

Det är möjligt att du behöver 16GB VRAM för att spela på nivån Ultra om fem år, men inte fanken kommer det att vara omöjligt att spela med det. Du får dra ner texturerna ett hack bara.

Nu vet vi ju i princip vad AMD och Nvidia kommer att erbjuda för minne i nästan hela segmentet. X060 är Nvidias volymkort, och de lär få 8GB minne den här generationen. AMD erbjuder sannolikt 12GB i den prisklassen - tänker mig att de kör Navi 32 XL med 12GB minne mot 4060 - men de har också 8GB ett hack ner på Navi 33. De allra flesta som köper kort det här generationen kommer att hamna på 8GB, och inte kommer de som optimerar spel att lämna alla de spelarna med en dålig upplevelse.

Man kan hoppas på det, men det finns ingen garanti.

Att ett spel är optimerat – som Daniel Owen betonade i en av sina videor nyligen, tror det var ang The Last of Us - betyder inte säkert att det är optimerat så att det går bra på all hårdvara, som typ för 8 GB, bara att spelet är optimerat för vad det är och vad det faktiskt kräver. Moore´s Law is Dead har nyligen haft två utvecklare i samtal, som betonar att det tar flera år att utveckla spel, och då räknar man med att mängden grafikminne ökar för varje generation, även på de lägsta korten – som ju var brukligt tidigare, du fick typ en dubblering varje generation. Målet kan mycket väl vara satt för 16 GB på spel som kommer att komma ut nu. PS5 har 16 GB, och nu kommer spelen som inte tar hänsyn till PS4 längre. Hur mycket optimering kommer då att krävas för 8 GB?

Dålig upplevelse är en subjektiv sak, men som visats kan du kan t ex tvingas stänga av raytracingen i 1080p, om du inte har nog med minne, i Nvidiasponsrade "A Plague Tale: Requiem" eller AMD-sponsrade "The Callisto Protocol": 16GB vs. 8GB VRAM: Radeon RX 6800 vs. GeForce RTX 3070, 2023 Revisit. Och det skulle jag nog säga är en ganska dålig upplevelse, om man hoppas och har väntat på att den här generationen ska ha bättre raytracing på pc, även i 1080p.

Raytracing i sig innebär ju bättre bildkvalite, men även ur utvecklarperspektiv lägre utvecklingskostnader i form av handpåläggning för t ex ljussättning etc. Sådant löser sig själv med raytracing, och det var en av de viktigaste orsakerna till att spelmotorn för Metro Exodus skrevs om för enbart raytracingkort. Att då lägga alltmer kostsamma resurser på att optimera för 8 GB, när de korten förmodligen utan större kostnad enkelt skulle kunnat få mer minne från grafikkortstillverkarna från början, känns både kontraproduktivt och motsägelsefullt…

Framförallt Nvidia står vid en brytpunkt nu som jag ser det. Ska de verkligen bara ge de kommande korten 8 GB, när vi redan nu vet konsekvenserna? Dvs "stäng av raytracingen"; inte den bästa pr-kampanjen kanske? Och DLSS i all ära, men vill vi verkligen att DLSS ska vara ett krav för 1080p på kort för 6000:-? Jag hoppas både AMD, Nvidia och Intel ser över sina planer på hur mycket minne de ska ge de kommande korten. En av utvecklarna jag hänvisar till ovan som jobbar med Call of Duty, hårddrar det lite extra när han sätter 12 GB som minimum på diskreta kort, den marknaden kan annars lika gärna köpa en APU med tillgång till vanligt RAM. De presterar inte alls dåligt som Sweclockers länkade till nyligen: Integrerad Ryzen-grafik får bra betyg i spel .

Om de ändå bestämmer sig för att snåla och enbart ha 8 GB på grafikkorten, hoppas jag de kostar därefter också. Nä, nu går jag ut i solen och får lite raytracing på mig.

Permalänk
Medlem
Skrivet av bopp:

PS5 har 16 GB, och nu kommer spelen som inte tar hänsyn till PS4 längre. Hur mycket optimering kommer då att krävas för 8 GB?

PS5 har 16GB, men det ska räcka till både grafikkortet och processorn. Kollar man på Xbox Series X så har den också 16GB, men där är det mer uppdelat med 10GB menat som VRAM och 6GB för resten. Så även om det är mer flexibelt på PS5 så ger nog Xbox en bra fingervisning på hur utvecklarna är tänkta att använda minnet.

En typisk speldator med ett RTX 4070 har å andra sidan 12GB VRAM och 16-32GB RAM, så är man bara ute efter konsollnivå på spelen så bör minnet räcka och bli över. Men har man ett 4070 så kanske man siktar lite högre än så, och då kan nog 12GB bli lite tråkigt om några år.

Permalänk
Medlem
Skrivet av Niolator:

Jag uppgraderade just brorsans dator med ett RTX 4070. Det är bra mycket snabbare på ray tracing än mitt Radeon RX 6950 XT men det ligger klart efter i övrigt.

Intressant att höra, jag satt och funderade på att välja mellan 6950 XT och 4070 då jag avvaktat ganska länge, men jag lutar nu åt att sitta kvar med mitt gamla åldringskort, visst ett 1060 är inte ett 4K kort, men är något av de här korten det då?

Visa signatur

No man is free who is not master of himself

Permalänk
Medlem
Skrivet av Luminous:

visst ett 1060 är inte ett 4K kort, men är något av de här korten det då?

6950 är det utan RT. Å andra sidan, om man kör DLSS2 eller FSR2 kan man ju köra 1440p och skala upp det med bra resultat.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Skulle jag nog ta ett PowerColor RX 6950 XT Red Devil istället för nästa 1000kr mindre.

Visa signatur

💻 → Asus ROG Strix G15 Advantage Edition G513QY-HQ008T (Win11, Linux Kali, VM)
🎮 → Fractal Design Define 7 XL Dark TG • Ryzen 9 7900X + Asus ROG Ryujin II • Gigabyte Aorus Radeon RX 7900 XTX Elite • 32GB DDR5 • Gigabyte X670E AORUS Xtreme • Kingston 2TB • Crucial T700 Gen5 M.2 1TB
🖥️ → Samsung 32'' Odyssey C32G75 Curved 240 Hz QLED
🎧 → AKG K701🖱️ → GLORIOUS MODEL O ⌨️ → CoolerMaster CK721 65%
📞 → NothingPhone 1 (P990i,U11,Diamond,Neonode N2, S9+ etc)

Permalänk

gtx 970 2014: 330 dollar

rtx 4070 2023: 599 dollar

inflationsjusterat hade 970 kostat $418.46 idag.

där har ni problemet, och anledningen till att nvidia drar ner produktion och att Inet redan lär skicka med spelkuponger med korten.

4070 ger mellan 60-100 fps i 1440p, vilket redan nu är lågt. 60fps nejtack. efter 2-3 år kommer man bli tvungen att gå ner till 1080p.

Visa signatur

är alla stockholmare inkompetenta?

Permalänk
Medlem
Skrivet av HickeHiskelig:

gtx 970 2014: 330 dollar

rtx 4070 2023: 599 dollar

inflationsjusterat hade 970 kostat $418.46 idag.

där har ni problemet, och anledningen till att nvidia drar ner produktion och att Inet redan lär skicka med spelkuponger med korten.

4070 ger mellan 60-100 fps i 1440p, vilket redan nu är lågt. 60fps nejtack. efter 2-3 år kommer man bli tvungen att gå ner till 1080p.

Nja inte riktigt ett 4070 ger långt över 100 i snitt i 1440p till och med ett 3070 får en bit över 90fps i snitt i 1440p.

Visa signatur

AMD® RYZEN™ 5 5600X
Red Devil Ultimate RX 6900 XT 16GB
Asus Rog Strix F-GAMING B450
HyperX Fury 32GB DDR4 3200 MHZ
Mobil: Google Pixel 7 PRO

Permalänk
Skrivet av Felixark:

Nja inte riktigt ett 4070 ger långt över 100 i snitt i 1440p till och med ett 3070 får en bit över 90fps i snitt i 1440p.

<Uppladdad bildlänk>

4070 är inte med i den där grafen. Men 20% bättre än 3070 ti blir väl runt 120 fps. Med det sagt ger kortet ändå 60fps i en del spel

Flight simulator 60 fps
Last of us 70 fps
Cod warzone 99 fps
Fortnite 76 fps
Hogwarts 89 fps
Dying light 95 fps

Ja, egentligen typ alla spel i denna video: https://youtu.be/k0Zq_iyNCcs

Om de tar med typ overwatch och apex i din benchmark ovan drar det ju upp snittet extremt, då det ju är väldigt lättdrivna spel, runt 250-300fps får man ju där

Visa signatur

är alla stockholmare inkompetenta?

Permalänk
Medlem
Skrivet av HickeHiskelig:

4070 är inte med i den där grafen. Men 20% bättre än 3070 ti blir väl runt 120 fps. Med det sagt ger kortet ändå 60fps i en del spel

Flight simulator 60 fps
Last of us 70 fps
Cod warzone 99 fps
Fortnite 76 fps
Hogwarts 89 fps
Dying light 95 fps

Ja, egentligen typ alla spel i denna video: https://youtu.be/k0Zq_iyNCcs

Om de tar med typ overwatch och apex i din benchmark ovan drar det ju upp snittet extremt, då det ju är väldigt lättdrivna spel, runt 250-300fps får man ju där

Warzone är dock sjukt cpu tungt. Jag bottleneckar av cpu där med 12600k i 4k

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Hedersmedlem

Hmm jag vet inte varför detta kort får Utmärkt, då mig veterligen pris är i mitt tycke alltför högt för vad det ger, men det nämner ni inte.... Viist är kort dyrare idag men att ge detta ert bästa betyg....

Visa signatur

Stalin var så gammal att de fick Len´in. ;)

Permalänk
Medlem
Skrivet av Jalle64:

Hmm jag vet inte varför detta kort får Utmärkt, då mig veterligen pris är i mitt tycke alltför högt för vad det ger, men det nämner ni inte.... Viist är kort dyrare idag men att ge detta ert bästa betyg....

Men om priset gått upp och ett 4070 kostar samma peng överallt så måste vär kortet recenseras utifrån det? Ska alla Grafikkort hädanefter få dåliga betyg i alla tester för att du anser att priserna är för höga?

Visa signatur

Phanteks Evolv mITX, i7 8700K, ASUS GeForce RTX 4070 12GB DUAL, Corsair DDR4 3200mhz 16GB, M.2 Samsung 970 EVO 500GB, Samsung EVO 860 SSD, OCZ ARC 100 SSD, WD Black 1TB, Gigabyte Aorus Pro WiFi Z390 mIXT. Audient ID14, Dynaudio LYD48. LG45GR95QE

Permalänk
Medlem
Skrivet av Ragnvlad:

Men om priset gått upp och ett 4070 kostar samma peng överallt så måste vär kortet recenseras utifrån det? Ska alla Grafikkort hädanefter få dåliga betyg i alla tester för att du anser att priserna är för höga?

Pris borde ingå i slutbetyget. Därmed borde betygen bli halvdana tills det blir värt att köpa.

Som det ser ut nu agerar Sweclockers reklam åt Komplett som använder recensionen och märket med utmärkt på sin sida.
Tyvärr smutsar det ner Sweclockers fina anseende enligt mig.

Visa signatur

1. Asrock B650 PG Lightning | 7600X | 32GB Kingston Fury 6000MHz | GTX 1070 |

Permalänk
Medlem
Skrivet av Hembrygd:

Pris borde ingå i slutbetyget. Därmed borde betygen bli halvdana tills det blir värt att köpa.

Som det ser ut nu agerar Sweclockers reklam åt Komplett som använder recensionen och märket med utmärkt på sin sida.
Tyvärr smutsar det ner Sweclockers fina anseende enligt mig.

Det anses ju "värt att köpa" idag, ijmf med marknaden iövrigt. Swec måste ju sätta betyg efter en verklighet.

Men du menar att Swec ska ändra sitt betyg om tex kronan stärks kraftigt?

Den sista biten...var luddig. Smutsas Sweclockers ner av att företag använder deras recensioner som reklam? Ok...

Permalänk
Medlem
Skrivet av Hembrygd:

Pris borde ingå i slutbetyget. Därmed borde betygen bli halvdana tills det blir värt att köpa.

Som det ser ut nu agerar Sweclockers reklam åt Komplett som använder recensionen och märket med utmärkt på sin sida.
Tyvärr smutsar det ner Sweclockers fina anseende enligt mig.

Inet länkar också till Sweclockers - Vad är problemet med att Sveriges största enutusiastforum för datorintresserade samarbetar med några av de största butikerna inom området?

Permalänk
Medlem
Skrivet av Hembrygd:

Pris borde ingå i slutbetyget. Därmed borde betygen bli halvdana tills det blir värt att köpa.

Som det ser ut nu agerar Sweclockers reklam åt Komplett som använder recensionen och märket med utmärkt på sin sida.
Tyvärr smutsar det ner Sweclockers fina anseende enligt mig.

Men vem avgör om det "blir värt att köpa"? Jag t.ex. köpte mig ett 4070 häromdagen för 7700:- och ansåg därmed att det var ett ok köp...

Visa signatur

Phanteks Evolv mITX, i7 8700K, ASUS GeForce RTX 4070 12GB DUAL, Corsair DDR4 3200mhz 16GB, M.2 Samsung 970 EVO 500GB, Samsung EVO 860 SSD, OCZ ARC 100 SSD, WD Black 1TB, Gigabyte Aorus Pro WiFi Z390 mIXT. Audient ID14, Dynaudio LYD48. LG45GR95QE