★ RTX 2080 ─ Diskussionstråd

Permalänk
Medlem

★ RTX 2080 ─ Diskussionstråd

Se här för mer information (jämförelse mellan fler än 50st RTX 2080)  ─  OCN Owner's Club

 

TIDSLINJE (Klicka på Visa innehåll)

Dold text

 

MSRP (Klicka på Visa innehåll)

Dold text

 

SPECS (Klicka på Visa innehåll)

   Architecture Turing
   Chip TU104-400A-A1
   Transistors 13,600 million
   Die Size 545 mm²
   Manufacturing Process 12nm

   CUDA Cores 2944
   TMUs 184
   ROPs 64
   SM Count 23
   Tensor Cores 368
   GigaRays 8 GR/s

   Core Clock 1515 MHz
   Boost Clock 1710 MHz
   Memory 8GB GDDR6
   Memory Bus 256-bit
   Memory Clock 1750 MHz
   Memory Bandwidth 448 GB/s
   External Power Supply 8 + 6 Pin
   TDP 215W

   DirectX 12.1
   OpenGL 4.6
   OpenCL 1.2
   Vulkan 1.1.78
   CUDA 7.1
   Shader Model 6.1

   Interface PCIe 3.0 x16
   Connectors 1x HDMI 2.0b, 3x DisplayPort 1.4a, 1x USB-C with DisplayPort 1.4a (VirtualLink)
   Dimensions 267 mm (2 Slot)

   Special Features NVIDIA NVLink 2-Way, Real-Time Raytracing (8 GR/​s), H.265 Encode/​Decode, NVIDIA G-Sync, NVIDIA VR-Ready, HDCP 2.2, Backplate

   Price $699 US (Founders Edition $799 US)

   Release Date September 20th, 2018

Dold text

GTX 580 | GF110-375 | 40nm | 520mm² | 3.0 BT | 512 CCs | 64 TMUs | 48 ROPs | 16 SMs | 772 MHz | 1.5GB | 128MB x 12 | GDDR5 | 384-bit | 192 GB/s GTX 680 | GK104-400 | 28nm | 294mm² | 3.5 BT | 1536 CCs | 128 TMUs | 32 ROPs | 8 SMs | 1058 MHz | 2GB | 256MB x 8 | GDDR5 | 256-bit | 192 GB/s GTX 780 | GK110-300 | 28nm | 551mm² | 7.1 BT | 2304 CCs | 192 TMUs | 48 ROPs | 12 SMs | 900 MHz | 3GB | 256MB x 12 | GDDR5 | 384-bit | 288 GB/s GTX 780 Ti | GK110-425 | 28nm | 551mm² | 7.1 BT | 2880 CCs | 240 TMUs | 48 ROPs | 15 SMs | 928 MHz | 3GB | 256MB x 12 | GDDR5 | 384-bit | 336 GB/s GTX 980 | GM204-400 | 28nm | 398mm² | 5.2 BT | 2048 CCs | 128 TMUs | 64 ROPs | 16 SMs | 1216 MHz | 4GB | 512MB x 8 | GDDR5 | 256-bit | 224 GB/s GTX 980 Ti | GM200-310 | 28nm | 601mm² | 8.0 BT | 2816 CCs | 172 TMUs | 96 ROPs | 22 SMs | 1076 MHz | 6GB | 512MB x 12 | GDDR5 | 384-bit | 336 GB/s GTX 1080 | GP104-400 | 16nm | 314mm² | 7.2 BT | 2560 CCs | 160 TMUs | 64 ROPs | 20 SMs | 1733 MHz | 8GB | 1024MB x 8 | GDDR5X | 256-bit | 320 GB/s GTX 1080 Ti | GP102-350 | 16nm | 471mm² | 12.0 BT | 3584 CCs | 224 TMUs | 88 ROPs | 28 SMs | 1582 MHz | 11GB | 1024MB x 11 | GDDR5X | 352-bit | 484 GB/s RTX 2080 | TU104-400 | 12nm | 545mm² | 13.6 BT | 2944 CCs | 184 TMUs | 64 ROPs | 23 SMs | 1710 MHz | 8GB | 1024MB x 8 | GDDR6 | 256-bit | 448 GB/s RTX 2080 Ti | TU102-300 | 12nm | 754mm² | 18.6 BT | 4352 CCs | 272 TMUs | 88 ROPs | 34 SMs | 1545 MHz | 11GB | 1024MB x 11 | GDDR6 | 352-bit | 616 GB/s

 

JÄMFÖRELSE (Exempel)

Mellan grafikkorten, klicka här för att gå vidare till OCN som har lista med fler än 50st!

        EVGA

  XC Gaming           | 2 Fan | 2    Slot | 268mm | RGB | 10 Power Phases | 1 BIOS | 1800 MHz Boost | Reference PCB | EAN 4250812429568 | PN 08G-P4-2182-KR   XC Ultra Gaming     | 2 Fan | 2.75 Slot | 268mm | RGB | 10 Power Phases | 1 BIOS | 1815 MHz Boost | Reference PCB | EAN 4250812429575 | PN 08G-P4-2183-KR

 

BENCHMARKS (Klicka på Visa innehåll)

Källa: Guru3D, HardwareCanucks, Hardware.Info, HEXUS, Kitguru, PC Games Hardware, PC Perspective, SweClockers, TechPowerUp, TweakTown

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

Dold text

 

DLSS (Klicka på Visa innehåll)

 

Dold text

VERKTYG

Ladda ner TechPowerUp GPU-Z 2.11 ─ Officiell (Källa)
Ger viktig information om ditt grafikkort samt låter dig spara ditt nuvarande BIOS.

Ladda ner NVIDIA NVFlash 5.513.0 ─ Officiell
NVFlash ger dig möjlighet att byta BIOS på ditt grafikkort.

 

BIOS / ROM

 

INSTRUKTIONER

TBA

Visa signatur

Projektlogg: Vector Qlimax

X APEX, 8700K @ 5200MHz, Trident Z 16GB @ 4133MHz CL16, RTX 2080 Ti, 970 M.2 SSD, RM1000x, EK A240

Permalänk
Medlem

Fick mitt MSI RTX 2080 Gaming X Trio igår och installerade det igår kväll över några kalla bärs
Tyckte kortet kändes bra med bra byggkvalité överlag, även om en del saker kändes lite plastiga.
Vad gäller anti-sag staget(Anti-bending reinforcement brace) som följer med så fick jag plocka ur 3st pci täckplåtar
för att få det på plats, och när det väl var på plats satt det inte speciellt bra så jag valde att plocka bort det.
Kortet böjer sig inte alls just nu i alla fall, och jag flyttar aldrig på datorn så det borde vara lugnt att köra utan (tror jag??)

Mitt kort överklockade relativt bra, hade velat haft ut lite mer på GPU'n men det blev stopp på +110Mhz.
Minnet landade på +800Mhz
Ska testa lite mer ikväll få se om det går att plocka lite mer på minnet, och framförallt om det gör något prestandamässigt.
Ibland är ju faktiskt inte max på allt det bästa.

Vad gäller temperaturen:
Load(Unigine Heaven 4.0) = 67-68°
Load OC(Unigine Heaven 4.0) = 69-70°
Idle = 39-40°

Ljudnivån var i stort sett samma som på mitt 1080 Strix

Nöjd med kortet än så länge

Visa signatur

MoBo: Asus Maximus XI Hero
CPU: Intel Core i9 9900K @ 5.1GHz + Asus Ryujin 360
RAM: Corsair Vengeance LPX DDR4 32GB @ 3600MHz
GPU: PowerColor RX 7800 XT Red Devil Ltd Edition | Monitor: Acer X38S
Chassi: Phanteks Evolv X + 3st Noctua NF-A14 iPPC | PSU: Corsair AX1200i

Permalänk
Hjälpsam

Överklockning med frusen CO2 (torr is).

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Luap:

Enligt GPU-z har jag ett annat BIOS än det i sweclockers test. Kortet verkar däremot prestera ungefär korrekt i 3dmark osv, även om det väldigt ofta är begränsat av power limitern.

Bör jag byta mitt kort?

Inget är fel, allt stämmer.

NVIDIA Partners kör sina egna BIOS, alltså kommer de skilja sig från Founders Edition.

Det är inte bara du som är missnöjd kan jag säga, nästan alla kort på marknaden vid lanseringen presterade/överklockade sämre än Founders Edition.

Ditt kort har en Default Power Limit245 W och en Maximal Power Limit256 W, skillnaden är då 4% mellan dessa två värden (Vad du kan justera). Du kan helt ignorera %, eftersom olika kort har olika startvärden (default). Då skiljer sig procenten men inte högsta värdet. Se det så här istället, 245 / 256 W (Min/Max).

Founders Edition har 225 / 280 W. Det betyder, utan att justera Power Limit, så presterar ditt kort bättre, 225W vs 245W.

Men ökar man power limit så blir Founders Edition snabbare.

ASUS Strix OC - 245 / 307 W.
EVGA XC - 225 / 292 W.
Gigabyte Gaming OC - 245 / 300 W.
MSI Gaming X Trio - 260 / 285 W.
Zotac AMP - 225 / 250 W.

Här ser du fler kort om du är intresserad.

Skiljer sig kraftigt mellan korten, både EVGA och Gigabyte var lägre än Founders Edition, men fick uppdatering. Många väntar på att MSI ska uppdatera också, men det är inget du ska räkna med.

Prestandan är som du själv säger, korrekt, endast några % hit och dit med en 50W ökning, vill du absolut ha högre kan du ta och flasha ditt kort med Gigabyte Gaming OC 300W BIOS, men det har ju såklart en risk, själva bytet är näst intill helt riskfritt, men skulle kortet sluta fungera i framtiden och du inte kan byta tillbaka till orginal, då kan MSI välja att inte acceptera din RMA, om de ser att det sitter fel BIOS på det.

Min rekommendation är att du kör kvar på ditt MSI, skillnaden är så liten, såklart en bonus om MSI framöver skulle släppa en uppdatering.

Visa signatur

Projektlogg: Vector Qlimax

X APEX, 8700K @ 5200MHz, Trident Z 16GB @ 4133MHz CL16, RTX 2080 Ti, 970 M.2 SSD, RM1000x, EK A240

Permalänk
Medlem
Skrivet av zhrooms:

Inget är fel, allt stämmer.

NVIDIA Partners kör sina egna BIOS, alltså kommer de skilja sig från Founders Edition.

Det är inte bara du som är missnöjd kan jag säga, nästan alla kort på marknaden vid lanseringen presterade/överklockade sämre än Founders Edition.

Ditt kort har en Default Power Limit245 W och en Maximal Power Limit256 W, skillnaden är då 4% mellan dessa två värden (Vad du kan justera). Du kan helt ignorera %, eftersom olika kort har olika startvärden (default). Då skiljer sig procenten men inte högsta värdet. Se det så här istället, 245 / 256 W (Min/Max).

Founders Edition har 225 / 280 W. Det betyder, utan att justera Power Limit, så presterar ditt kort bättre, 225W vs 245W.

Men ökar man power limit så blir Founders Edition snabbare.

ASUS Strix OC - 245 / 307 W.
EVGA XC - 225 / 292 W.
Gigabyte Gaming OC - 245 / 300 W.
MSI Gaming X Trio - 260 / 285 W.
Zotac AMP - 225 / 250 W.

Här ser du fler kort om du är intresserad.

Skiljer sig kraftigt mellan korten, både EVGA och Gigabyte var lägre än Founders Edition, men fick uppdatering. Många väntar på att MSI ska uppdatera också, men det är inget du ska räkna med.

Prestandan är som du själv säger, korrekt, endast några % hit och dit med en 50W ökning, vill du absolut ha högre kan du ta och flasha ditt kort med Gigabyte Gaming OC 300W BIOS, men det har ju såklart en risk, själva bytet är näst intill helt riskfritt, men skulle kortet sluta fungera i framtiden och du inte kan byta tillbaka till orginal, då kan MSI välja att inte acceptera din RMA, om de ser att det sitter fel BIOS på det.

Min rekommendation är att du kör kvar på ditt MSI, skillnaden är så liten, såklart en bonus om MSI framöver skulle släppa en uppdatering.

Stort tack för ett riktigt facit-svar!

Du gjorde det helt plötsligt väldigt klart, även om jag inte riktigt hänger med hur Sweclockers (enligt recensionen iaf) kunde uppa Power Limiten 10%. Oavsett lutar jag åt att hålla kvar mitt kort, då jag inte orkar böka runt för mycket för ett par extra procent. Jag är dessutom nöjd med ljudnivån, så det kan ju vara så att det kostar mer än vad det smakar att höja strömbudgeten. Det spelar mest roll vid överklock ändå, right?

Ännu en gång, stort tack för det utförliga svaret.

Visa signatur

En ogrundad optimism. En antirealism.

Permalänk
Medlem
Skrivet av Luap:

Även om jag inte riktigt hänger med hur Sweclockers (enligt recensionen iaf) kunde uppa Power Limiten 10%.

Läste ditt inlägg lite för snabbt, missade att SweClockers hade test på Duke, det stämmer inte precis som du säger, SweClockers har fått sitt kort skickat med annat BIOS, alla reviews jag läst (20+) på Ti kort har haft samma power limit som retail. Men glöm inte att det inte behöver spela någon roll, 10% kan vara från 225 W, då är det endast 248 W. Det jag skulle vilja se är BIOS rutan i GPU-Z på SweClockers testkort.

Efter att ha kikat vidare lite så kan jag se att när effektmätningen görs så drar MSI mer än Founders Edition, vilket stämmer, det ska det göra då det är 245W upp från 225W vid 100% Power Limit (Default).

Kortet ska köra 1845MHz (vilket det även står i GPU-Z) upp från FE 1800MHz, det går hand i hand med 245W.

Men vid prestandaindex, sammanställningen, så hamnar Duke OC under i alla tre upplösningar. Även vid överklockning så drar det aningen mer ström men förlorar mot överklockat Founders Edition.

SweClockers Founders Edition GPU-Z OC - 1925 MHz Boost
SweClockers MSI Duke OC GPU-Z OC - 1975 MHz Boost

Enligt testet så hade Founders Edition högre benchmark score och spelprestanda. Fast vid lägre boost. MSI hade både högre boost och högre energiförbrukning.

Underligt minst sagt, bara SweClockers kan undersöka varför. Ditt kort är det hur som helst inget fel på, det är samma BIOS som alla andra har.

Skrivet av Luap:

Det kan ju vara så att det kostar mer än vad det smakar att höja strömbudgeten. Det spelar mest roll vid överklock ändå, right?

Ja, snabbare kort kräver högre power limit.

I en artikel på Tom's Hardware (DE) så testas ett Ti kort med 320W och 380W BIOS, alltså 60W skillnad, vattenkylt med överklockning, prestandaökningen var 2.7% (Forza) och 3.4% (Witcher). Men det ska tas med en nypa salt då det bara är ett test, jag kan inte säga om/hur mycket vattenkylningen (temperaturen) påverkade heller. Förhoppningsvis dyker det upp fler framöver, kan tyvärr inte testa själv då jag inte fått mitt kort i skrivande stund.

Skrivet av zhrooms:

Reference PCB with 320 W Power Limit (FE BIOS) = 21.5 Amp with peaks up to 30 (On the PCIe 12v).
And an additional 5.0 Amp from the PEG Slot (Max 6.25 / 75 W). With peaks of up to 7.5.

Watts, Avg. Total - 330 W.
Watts, Peak. Total - 440-460 W.

Reference PCB with 380 W Power Limit (Galax BIOS) = 24.0 Amp with peaks up to 32 (On the PCIe 12v).
And an additional 6.0 Amp from the PEG Slot (Max 6.25 / 75 W). With peaks of up to 9.0!

Watts, Avg. Total - 375 W.
Watts, Peak. Total - 480-500! W.

Det är inte hela världen men 45 W (13.6%) högre average för upp till 3.4% prestanda är för många inte värt det.

Visa signatur

Projektlogg: Vector Qlimax

X APEX, 8700K @ 5200MHz, Trident Z 16GB @ 4133MHz CL16, RTX 2080 Ti, 970 M.2 SSD, RM1000x, EK A240

Permalänk
Medlem
Skrivet av zhrooms:

Läste ditt inlägg lite för snabbt, missade att SweClockers hade test på Duke, det stämmer inte precis som du säger, SweClockers har fått sitt kort skickat med annat BIOS, alla reviews jag läst (20+) på Ti kort har haft samma power limit som retail. Men glöm inte att det inte behöver spela någon roll, 10% kan vara från 225 W, då är det endast 248 W. Det jag skulle vilja se är BIOS rutan i GPU-Z på SweClockers testkort.

Efter att ha kikat vidare lite så kan jag se att när effektmätningen görs så drar MSI mer än Founders Edition, vilket stämmer, det ska det göra då det är 245W upp från 225W vid 100% Power Limit (Default).

Kortet ska köra 1845MHz (vilket det även står i GPU-Z) upp från FE 1800MHz, det går hand i hand med 245W.

Men vid prestandaindex, sammanställningen, så hamnar Duke OC under i alla tre upplösningar. Även vid överklockning så drar det aningen mer ström men förlorar mot överklockat Founders Edition.

SweClockers Founders Edition GPU-Z OC - 1925 MHz Boost
SweClockers MSI Duke OC GPU-Z OC - 1975 MHz Boost

Enligt testet så hade Founders Edition högre benchmark score och spelprestanda. Fast vid lägre boost. MSI hade både högre boost och högre energiförbrukning.

Underligt minst sagt, bara SweClockers kan undersöka varför. Ditt kort är det hur som helst inget fel på, det är samma BIOS som alla andra har.

Ja, snabbare kort kräver högre power limit.

I en artikel på Tom's Hardware (DE) så testas ett Ti kort med 320W och 380W BIOS, alltså 60W skillnad, vattenkylt med överklockning, prestandaökningen var 2.7% (Forza) och 3.4% (Witcher). Men det ska tas med en nypa salt då det bara är ett test, jag kan inte säga om/hur mycket vattenkylningen (temperaturen) påverkade heller. Förhoppningsvis dyker det upp fler framöver, kan tyvärr inte testa själv då jag inte fått mitt kort i skrivande stund.

Det är inte hela världen men 45 W (13.6%) högre average för upp till 3.4% prestanda är för många inte värt det.

Wow, vilket svar. Tack så hemskt mycket för att du tog dig tid att reda ut det här. Full pott internetkarma till dig!

Visa signatur

En ogrundad optimism. En antirealism.

Permalänk
Moderator
Testpilot

Detta verkar lite oklart.

Jag måste säga att jag aldrig sett grafer presenterade på detta viset tidigare.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Dinoman:

Detta verkar lite oklart.

Syftar du på "tidslinjen" kanske?

Visa signatur

Projektlogg: Vector Qlimax

X APEX, 8700K @ 5200MHz, Trident Z 16GB @ 4133MHz CL16, RTX 2080 Ti, 970 M.2 SSD, RM1000x, EK A240

Permalänk
Moderator
Testpilot
Skrivet av zhrooms:

Syftar du på "tidslinjen" kanske?

Bland annat.

Jag vet inte riktigt var jag ska börja om jag ska vara helt ärlig men där finns ju ett par uppenbara saker som är grundläggande.

X- och Y-axel behöver vara presenterat och klargjort. Graferna bör utgå från 0, detta är inte ett måste men god sed. Att presentera en graf där varje enskild data är jämförd med den innan är inte ett bra sätt att presentera data på. Att ha en graf som dynamiskt förändras och inte utgår från ett fixerat värde är inte bra.

Kopplat till det så om du ska räkna på prestandaökning kontra föregående generation så presenteras detta bäst så som Swec redaktion brukar göra med index 100. Tar du t.ex. medianvärdet i tabellen, i detta fallet 980 Ti eller 1080. Sedan räknar du index, därifrån uppåt och neråt.

MSRP priserna har du tagit dig lite friheter till att avrunda, t.ex. 980 blir om man räknar på inflation cirka 585$, korrekt avrundat. Likaså 980 Ti hamnar på 690$. Sen är det ju inte bra att bortse från Founders Edition eftersom det kraftigt påverkat prisbilden. T.ex. finns inte ens 2080 TI att få tag på för 1000$ i USA. Här skulle jag presenterat bägge priserna för att vara mer korrekt. Gäller Pascal såväl som Turing.

Att jämföra Pascal med Turing i DLSS är helt onödigt. Det är som att jämföra en bil med ett lok. En bil kan inte köra på räls så det spelar ingen roll hur snabb loket är på rälsen kontra en bil på räls.

Om man nu inte är ute efter att medvetet vilseleda men det är du ju såklart inte.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Dinoman:

Detta verkar lite oklart.

Jag måste säga att jag aldrig sett ett mer oklart inlägg tidigare.

Istället för den onödiga kommentaren kunde du väl specifikt berättat vad du tyckte var oklart, eller bättre ändå, skickat ett PM till mig med idéer om förbättringar, du borde förstå att detta inte hör hemma i en diskussionstråd om ett grafikkort.

Skrivet av Dinoman:

Jag måste säga att jag aldrig sett grafer presenterade på detta viset tidigare.

Skrivet av Dinoman:

Jag vet inte riktigt var jag ska börja om jag ska vara helt ärlig men där finns ju ett par uppenbara saker som är grundläggande.

Skrivet av Dinoman:

X- och Y-axel behöver vara presenterat och klargjort. Att presentera en graf där varje enskild data är jämförd med den innan är inte ett bra sätt att presentera data på. Att ha en graf som dynamiskt förändras och inte utgår från ett fixerat värde är inte bra.

Låter som att du blivit personligt angripen, för du inte gillar stilen på några grafer?

De är mycket bra som de är, enkla och snabblästa. Du är den första och enda att kritisera dem av tio tusentals människor.

Skrivet av Dinoman:

Kopplat till det så om du ska räkna på prestandaökning kontra föregående generation så presenteras detta bäst så som Swec redaktion brukar göra med index 100. Tar du t.ex. medianvärdet i tabellen, i detta fallet 980 Ti eller 1080. Sedan räknar du index, därifrån uppåt och neråt.

Precis vad jag gjort, kanske kika klart på alla grafer innan du uttalar dig?

Skrivet av Dinoman:

MSRP priserna har du tagit dig lite friheter till att avrunda

Ja, i detta fall är det bättre än att inte göra det, för klarhetens skull.

Skrivet av Dinoman:

Graferna bör utgå från noll, detta är inte ett måste men god sed.

De gör de, endast gömda. För att citera dig själv, "helt onödigt" att de syns.

Skrivet av Dinoman:

T.ex. finns inte ens 2080 TI att få tag på för 1000$ i USA.

Vid skrivande stund $1149, blower varianter samt TU102-300 kommer sjunka så fort korten faktiskt kommer ut på marknaden.

Skrivet av Dinoman:

Här skulle jag presenterat bägge priserna för att vara mer korrekt.

Hade tyvärr inte lust att göra en graf längre än kinesiska muren.

Skrivet av Dinoman:

Att jämföra Pascal med Turing i DLSS är helt onödigt.

Om det är helt onödigt, hur kommer det sig att jag och alla andra är mycket intresserade? Dussintals recencenter gav sig in på det.

Skrivet av Dinoman:

Det är som att jämföra en bil med ett lok. En bil kan inte köra på räls så det spelar ingen roll hur snabb loket är på rälsen kontra en bil på räls.

Du får det att låta som att Pascal inte kan köra DLSS titlar. Verkar som du missat helt vad DLSS faktiskt gör, målet är att snabba upp och förbättra renderingen med hjälp av deep learning & tensor cores. Du får ökad prestanda utan försämrad bildkvalitet. Därav högst relevant i jämförelse med Pascal som saknar funktionen. Enorma kliv i prestanda kan nås, vilket resultaten visar. Givetvis behöver det testas mer i spel framöver.

Skrivet av Dinoman:

Om man nu inte är ute efter att medvetet vilseleda men det är du ju såklart inte.

Mycket otrevliga inlägg att läsa.

Som tidigare nämnt, från början väldigt onödigt av dig att skriva i tråden, det är en diskussionstråd om RTX 2080, som du bara var tvungen att kommentera negativt om, spenderade minst en timme på att kopiera över texten här till forumet efter att flera medlemmar tyckte det skulle vara en bra idé då den innehåller mycket hjälpsam information. Förvånad över att du representerar SweClockers.

Visa signatur

Projektlogg: Vector Qlimax

X APEX, 8700K @ 5200MHz, Trident Z 16GB @ 4133MHz CL16, RTX 2080 Ti, 970 M.2 SSD, RM1000x, EK A240

Permalänk
Moderator
Testpilot

Ok...

Får erkänna att jag blev lite överväldigad av alla citatuppdelningar och till synes helt slumpmässig fetstil lite här och var.

Skrivet av zhrooms:

Jag måste säga att jag aldrig sett

Det här tycker jag är lite onödigt kraftigt uttryck.

Citat:

ett mer oklart inlägg tidigare.

Har du verkligen aldrig sett något mer oklart inlägg sedan 2006?

Citat:

Istället för den onödiga kommentaren kunde du väl specifikt berättat vad du tyckte var oklart,

Det trodde jag framgick med all önskvärd tydlighet.

Citat:

eller bättre ändå, skickat ett PM till mig med idéer om förbättringar,

Jag trodde tanken var att öppet diskutera på detta forumet?

Citat:

du borde förstå att detta inte hör hemma i en diskussionstråd om ett grafikkort.

Fast att jag ger dig tips på hur du på ett mer professionellt sätt presenterar data i grafer i en tråd du pyntat som en julgran med grafer borde väl ändå vara helt rimligt?

Citat:

Låter som att du blivit personligt angripen,

I så fall intellektuellt angripen av oklarheten i graferna.

Citat:

för du inte gillar stilen på några grafer?

Om du pratar om själva färgsättningen och 3D-effekten på graferna så är de mycket vackra och fina.

Citat:

De är mycket bra som de är, enkla och snabblästa.

Fast bara för att du säger det så blir det tyvärr inte objektivt sant.

Citat:

Du är den första och enda att kritisera dem av tio tusentals människor.

Någon måste ju vara först. Det var en himlans massa människor som tittat på dina grafer. Det förvånar mig att jag är först.

Citat:

Precis vad jag gjort, kanske kika klart på alla grafer innan du uttalar dig?

Nej, du har successivt adderat varje generations prestandaökning så att ökningen ser exponentiell ut, vilket den inte är.

Citat:

Ja, i detta fall är det bättre än att inte göra det, för klarhetens skull.

Det håller jag inte alls med om det blir snarare oklarare, du avrundar alldeles för mycket till den gränsen det blir missvisande. Avrunding är inte något som man själv bestämmer hur man vill göra den, det finns matematiska regler. Vill du approximera så kan du addera ett ~ eller skriva ut cirka. Två exempel på hur du kommunicerar på ett ärligare sätt.

Citat:

De gör de, endast gömda.

Varför är de gömda och denna oklara grafen synlig?

Citat:

För att citera dig själv, "helt onödigt" att de syns.

...ok...

Citat:

Vid skrivande stund $1149, blower varianter samt TU102-300 kommer sjunka så fort korten faktiskt kommer ut på marknaden.

Det 149$ mer än du visar i din graf och det blir ju en ganska hal backe nedför om du ska basera dina grafer på spekulativ information som du inte kan verifiera.

Citat:

Hade tyvärr inte lust att göra en graf längre än kinesiska muren.

Ok så fyra värden till hade ruinerat hela grafen? Du kunde ju alltid lagt FE-priserna som överlappande med MSRP.

Citat:

Om det är helt onödigt, hur kommer det sig att jag och alla andra är mycket intresserade?

Jag säger ingenting om intresset kring DLSS, det är säkert superintressant och jag får hålla med dig om att här uttalade jag mig lite klumpigt. Givetvis kan du göra jämförelsen för att påvisa prestandavinsten det jag tycker är lite galet är att Pascal enligt din graf till synes presterar 0, även om du i denna grafen har värden med på Y-axeln. Det hade varit bättre att utgå från just 0, precis som Nvidia gjorde i sina grafer.

Citat:

Dussintals recencenter gav sig in på det.

Ja det är ju inte så konstigt med tanke på att det är en rätt stor grej med Turing just. Det ifrågasätter jag inte.

Citat:

Du får det att låta som att Pascal inte kan köra DLSS titlar.

Jag kan inte ta ansvar för hur du tolkar min text men det var inte vad min metafor säger. I så fall hade jag sagt att bilen inte kunde köra överhuvudtaget.

Citat:

Verkar som du missat helt vad DLSS faktiskt gör, målet är att snabba upp och förbättra renderingen med hjälp av deep learning & tensor cores.

Mansplainade du precis mig?

Citat:

Du får ökad prestanda utan försämrad bildkvalitet.

Detta är ett påstående du inte kan backa upp. Bättre prestanda är det inget snack om men att bildkvaliteten skulle vara oförändrad är inte sant. Hardware Unboxed går in på detta i mycket god detalj.

Citat:

Därav högst relevant i jämförelse med Pascal som saknar funktionen.

Självklart kan man lyfta DLSS som en fördel med Turing men du kan ju inte rita upp en graf som till synes er ut som att Pascal presterar 0.

Citat:

Enorma kliv i prestanda kan nås, vilket resultaten visar.

Grafen är missvisande. Jag ifrågasätter inte resultatet.

Citat:

Givetvis behöver det testas mer i spel framöver.

Ok detta kommenterade jag inte ens.

Citat:

Mycket otrevliga inlägg att läsa.

Jag tycker inte jag var otrevlig direkt men i så fall ber jag om ursäkt om du tyckte tonen var dålig.

Citat:

Som tidigare nämnt, från början väldigt onödigt av dig att skriva i tråden,

Varför det? Om du presenterar information som fakta och graferna är vilseledande så är det väl mitt ansvar att påpeka detta så att det inte sker felaktig ryktesspridning?

Citat:

det är en diskussionstråd om RTX 2080,

Exakt, en diskussionstråd inte en ekokammare som du kan sitta och skrika i och få dina egna svar tillbaka.

Citat:

som du bara var tvungen att kommentera negativt om,

Det var tråkigt att du ansåg min kommentar som negativ men jag försökte enbart lyfte de felaktigheter som du har i dina grafer, om man publicerar data på internet så får man vara beredd på att ta kritik, negativ som positiv, så är det bara.

Citat:

spenderade minst en timme på att kopiera över texten här till forumet efter att flera medlemmar tyckte det skulle vara en bra idé då den innehåller mycket hjälpsam information.

Det var säkert mycket uppskattat av många men du måste förstå att information bör vara så objektiv som möjligt. Man kan inte publicera vad som helst och förvänta sig att vara vaccinerad mot kritik.

Citat:

Förvånad över att du representerar SweClockers.

Varför det? För att jag påpekar att dina grafer är missvisande och ger dig konstruktiv kritik?

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

För att komma tillbaka till trådens kärna kan jag ge lite feedback för eventuella köpare, då jag bytte mitt MSI Duke RTX 2080 mot ett Gigabyte RTX 2080 Gaming OC. Prestandan ligger inom felmarginalen, men Gigabyte-kortet går märkbart tystare TROTS att det är ca 5 grader svalare vid load.

Vet inte riktigt hur MSI lyckades klåpa till det med sin stora köttiga kylfläns, men något är way off där vad gäller ljudet. Har inte pillat så mkt med överklockning ännu, men jag har svårt att se hur Gigabyte-kortet överlag ska vara ett sämre alternativ där med högre power limit.

Jag kan med andra ord stämma in i Sweclockers slutsats, Gigabyte Gaming OC > MSI DUKE OC

Visa signatur

En ogrundad optimism. En antirealism.

Permalänk
Medlem

Surt att det var just MSI 2080 DUKE som jag köpte snabbt när det var nedsatt till 8290 kr. Känns ju lite svårmotiveratt att istället behöva betala 9500 för "samma" kort men med bättre / tystare kylning...

Permalänk
Medlem

+10k för ett grafikkort

Vad har jag missat?

Permalänk
Medlem

Jag har suttit och argumenterat med mig själv mellan ett 2070 (nu när vi vet prestanda och pris) och ett 2080... 2080Ti är för dyrt, premiumen är för mycket över 2080 tycker jag.

Men om man tittar på 2070, så är de "billiga" korten meh, de dyrare är mer imponerande prestandamässigt när dom klarar boosta 1900mhz+ och börjar krypa lite närmare 1080Ti (och innan nån säger "lol det gör dom inte titta på reviews" så titta på ännu mer reviews med OC kort istället för baseline) men då pratar vi 7000-7200kr eller däromkring... Och sån prestanda i bästa fall... Dom för 8000kr+ är ju bara dumheter, haha, fattar inte ens varför dom existerar.

Oavsett hur så gör detta att priset kryper närmare ett 2080 som har märkbart högre prestanda.

Suck... Man får väl leva på bröd och vatten och skaffa ett 2080 ändå. Hade jag haft ett 1070Ti eller högre hade jag aldrig ens funderat på att uppgradera men jag vill verkligen byta mitt 1060 3gb nu.

Permalänk
Moderator
Testpilot
Skrivet av murklor:

Jag har suttit och argumenterat med mig själv mellan ett 2070 (nu när vi vet prestanda och pris) och ett 2080... 2080Ti är för dyrt, premiumen är för mycket över 2080 tycker jag.

Men om man tittar på 2070, så är de "billiga" korten meh, de dyrare är mer imponerande prestandamässigt när dom klarar boosta 1900mhz+ och börjar krypa lite närmare 1080Ti (och innan nån säger "lol det gör dom inte titta på reviews" så titta på ännu mer reviews med OC kort istället för baseline) men då pratar vi 7000-7200kr eller däromkring... Och sån prestanda i bästa fall... Dom för 8000kr+ är ju bara dumheter, haha, fattar inte ens varför dom existerar.

Oavsett hur så gör detta att priset kryper närmare ett 2080 som har märkbart högre prestanda.

Suck... Man får väl leva på bröd och vatten och skaffa ett 2080 ändå. Hade jag haft ett 1070Ti eller högre hade jag aldrig ens funderat på att uppgradera men jag vill verkligen byta mitt 1060 3gb nu.

Köp ett begagnat 1080 Ti och vänta på 7nm.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Dinoman:

Köp ett begagnat 1080 Ti och vänta på 7nm.

Om jag köper ett begagnat 1080Ti för 6000kr eller nåt nu och sen ett 7nm 3080 som säkert kommer gå för 10k och kanske har samma prestanda som 2080Ti på sin höjd skulle jag förmodligen lika gärna kunna köpa ett 2080Ti idag och komma billigare undan. Nvidia har visat att dom inte är korkade - 7nm kort säkert ha högre yeilds och högre frekvenser... vilket bara ger bättre vinstmarginaler för dom kommer ändå vara lika dyra i procent som dom är snabbare.

Permalänk
Moderator
Testpilot
Skrivet av murklor:

Om jag köper ett begagnat 1080Ti för 6000kr eller nåt nu och sen ett 7nm 3080 som säkert kommer gå för 10k och kanske har samma prestanda som 2080Ti på sin höjd skulle jag förmodligen lika gärna kunna köpa ett 2080Ti idag och komma billigare undan. Nvidia har visat att dom inte är korkade - 7nm kort säkert ha högre yeilds och högre frekvenser... vilket bara ger bättre vinstmarginaler för dom kommer ändå vara lika dyra i procent som dom är snabbare.

Ja du gör ju som du vill men jag hade avvaktat vad AMD har i rockärmen när det kommer till 7 nm samt hur det går med RTX och DLSS.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

@murklor: Märkligt, mitt duke kort är väldigt tyst. Hör det knappt.

Visa signatur

Citera mig tack, så jag vet att du svarat.

Permalänk
Medlem
Skrivet av Dinoman:

Ja du gör ju som du vill men jag hade avvaktat vad AMD har i rockärmen när det kommer till 7 nm samt hur det går med RTX och DLSS.

Den avvaktan tror jag skulle bli lång. Dessutom så spelar det ingen roll för mig vad AMD kommer med - jag har en gsync skärm så är "låst" till Nvidia. Om Nvidia svarar AMD så kommer det vara sent 2019 eller tidigt 2020, dom behöver inte göra nåt speciellt även om AMD släpper ett "bra" kort för dom har fortfarande total marknads dominans. Därav för mig är ett 1080Ti en exakt likadan stepping stone som 2080 och även om ett begagnad kort är billigare så är prisskillnaden bara ca värdet på ett år som lätt balanseras ut av garanti värdet.

Enda saken som skulle kunna sabba allt värde på 20 serien är om korten snabbt ökar minnesmängden (typ AMD släpper ett 16gb kort för 4000kr och ett 32gb för 8000kr eller nåt) så att 8gb/11gb tappar helt värde. Men men, man får väl chansa. Jag har varit grymt nöjd med mina senaste GTX670, GTX980Ti och GTX1060. Det på den gamla goda tiden svindyra 980Ti kortet pajjade totalt och jag fick pengarna tillbaka på garantin, därav lägger jag rätt så mycket värde vid det med nya dyra kort istället för risken att slänga pengarna i sjön med lite billigare begagnat...

Förlåt om man börjar låta för filosofisk, försöker mest motivera mig själv

Permalänk
Medlem
Skrivet av murklor:

Jag har suttit och argumenterat med mig själv mellan ett 2070 (nu när vi vet prestanda och pris) och ett 2080... 2080Ti är för dyrt, premiumen är för mycket över 2080 tycker jag.

Men om man tittar på 2070, så är de "billiga" korten meh, de dyrare är mer imponerande prestandamässigt när dom klarar boosta 1900mhz+ och börjar krypa lite närmare 1080Ti (och innan nån säger "lol det gör dom inte titta på reviews" så titta på ännu mer reviews med OC kort istället för baseline) men då pratar vi 7000-7200kr eller däromkring... Och sån prestanda i bästa fall... Dom för 8000kr+ är ju bara dumheter, haha, fattar inte ens varför dom existerar.

Oavsett hur så gör detta att priset kryper närmare ett 2080 som har märkbart högre prestanda.

Suck... Man får väl leva på bröd och vatten och skaffa ett 2080 ändå. Hade jag haft ett 1070Ti eller högre hade jag aldrig ens funderat på att uppgradera men jag vill verkligen byta mitt 1060 3gb nu.

Vad är det för fel på MSI Geforce RTX 2070 Armor? Det som sweclockers precis nyligen recenserat? Sweclockers fick det att boosta till 1965Mhz enligt swecs test

För 5700 tycker jag det presterar bra!

EDIT: Eller menar du turbonivå när du skriver boosta? Isåfall är det ju en helt annan nivå, men då är jag inte förvånad att det kostar en del mer heller...

Permalänk
Moderator
Testpilot
Skrivet av murklor:

Den avvaktan tror jag skulle bli lång. Dessutom så spelar det ingen roll för mig vad AMD kommer med - jag har en gsync skärm så är "låst" till Nvidia. Om Nvidia svarar AMD så kommer det vara sent 2019 eller tidigt 2020, dom behöver inte göra nåt speciellt även om AMD släpper ett "bra" kort för dom har fortfarande total marknads dominans. Därav för mig är ett 1080Ti en exakt likadan stepping stone som 2080 och även om ett begagnad kort är billigare så är prisskillnaden bara ca värdet på ett år som lätt balanseras ut av garanti värdet.

Enda saken som skulle kunna sabba allt värde på 20 serien är om korten snabbt ökar minnesmängden (typ AMD släpper ett 16gb kort för 4000kr och ett 32gb för 8000kr eller nåt) så att 8gb/11gb tappar helt värde. Men men, man får väl chansa. Jag har varit grymt nöjd med mina senaste GTX670, GTX980Ti och GTX1060. Det på den gamla goda tiden svindyra 980Ti kortet pajjade totalt och jag fick pengarna tillbaka på garantin, därav lägger jag rätt så mycket värde vid det med nya dyra kort istället för risken att slänga pengarna i sjön med lite billigare begagnat...

Förlåt om man börjar låta för filosofisk, försöker mest motivera mig själv

Du har ju redan bestämt dig. Varför ens diskutera det?

Skickades från m.sweclockers.com

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt