Nvidia Geforce RTX 2080 Ti och RTX 2080 prestandatestas i Final Fantasy XV

Permalänk
Medlem

@ArtMan: Måste hålla med LTT att man aldrig någonsin kommer vilja ha RTX aktiverat i multiplayer. Så det kommer bara bli ögongodis i singelplayer.

Visa signatur

| CPU: Intel i7 7700k | RAM: Crucial DDR4 OC @2400mhz 16GB (2x8GB) | GPU: EVGA GeForce RTX 2080 XC GAMING| Mobo: MSI H110I Pro | SSD: Crucial BX200 240GB 2.5" SSD | SSD2: Samsung 850 EVO 500GB 2.5" SSD | Nätagg: be quiet! SFX L Power 600W | Kylare: NZXT Kraken X62 | Chassi: Fractal Design Nano S | OS: Windows 10 Pro

Permalänk
Medlem
Skrivet av anon114264:

Tack för att du spoilerar prestandan helt och hållet. Jag har försökt hålla mig borta från dessa leaks. Sweclockers kommer alltid vara referens när det kommer till prestandaresultat.

Du skämtar va? ... Om inte: Du går in på kommentarerna på en artikel som handlar om läckor när du aktivt försöker hålla dig undan från läckor.

När jag skrivit det så inser jag att det måste varit sarkasm.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

Jag läste någonstans att 2080 Ti skall ha 18.9b transistorer. 1080 ti har 12b, så det är ändå 50% fler. Jag förstår verkligen att de måste ta det priset som de tar om de gör en så pass mycket större krets med större risk att varje krets innehåller fel.

Låt oss ponera det otroliga, att AMD skulle släppa ett kort som var lika snabbt som 2080 Ti, fast inte behövt de extra transistorerna för RT och Tensor Cores. Då kanske de hade kunnat sälja det runt 8-10? Det hade kunnat ge dem en hel del marknadsandelar skulle jag tippa. Om de skulle ta den vägen.

Jag ser det som att nvidia har gett AMD en möjlighet att släppa "ett traditionellt grafikkort" som kan konkurrera hårt.

Vi får se vad det är som kommer på 7nm från AMD. Sett till prestanda, arkitektur och till viss del funktionalitet, så har Nvidia verkligen släppt några imponerande kort.

Visa signatur

Hur många datorer är för många?

Permalänk
Moderator, Testpilot
Skrivet av ipac:

Det vore klädsamt ja men du jämför inte äpplen med äpplen, du jämför olika namn. Namnet i sig har ingen påverkan på priset.

BOM har som regel påverkan på priset dock och även om vi aldrig kommer få veta exakt är det väldigt rimligt att anta att BOM för 2080 ligger närmare 1080Ti än 1080 i BOM. Så håll ordning på frukten...

Du menar som att 1080 och 2080 bägge två innehåller xx104 samt 8 GB minne över en 256-bit buss? Eller 1080 Ti och 2080 Ti innehåller en xx102 med 11GB minne över en 352-bit buss?

Självklart kommer två generetioner inte ha identiska BOM:ar. Med det argumentet så går det inte att jämföra någonting. Det hade nog iofs tillverkarna gillat. Ungefär som när en arbetsgivare inte tycker att mans kall jämföra löner eftersom den ena sorterar ju strumpor medan den andra sorterar kalsonger. Inte samma BOM där inte!

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av jOnÄTÄn:

Men på många verkar det som det varit en omöjlighet att spela i 4k och nå 60FPS, så därför skrev jag det jag gjorde eftersom jag kunde göra det för flera år sedan utan att offra allt för mycket med inställningarna.

Det tror jag inte någon har missat..

Visa signatur

Dator 1: | i9 9900k | MSI RTX 4080 Ventus 3x OC | ASUS ROG STRIX Z390-F Gaming | Corsair LPX DDR4 32 GB 3200Mhz | FD define S | Samsung 850 EVO 1TB | Samsung 980 NVMe M.2 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 10
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync
Skärm 2: ASUS 27" TUF VG27AQ1A 1440p @ 170Hz/IPS/G-Sync/HDR

Permalänk
Medlem
Skrivet av Dinoman:

Du jämför 1080 Ti och 980 Ti med 2080 icke Ti.

Svårt att jämföra modeller men så här ser det ut;

Palit GeForce GTX 1080 Ti GameRock Premium = 7 899:-
Palit GeForce RTX 2080 Ti GamingPro = 13 290:- (168%)

Palit GeForce GTX 1080 GameRock Premium = 5 990:-
Palit GeForce RTX 2080 GamingPro = 8 690:- (145%)

Jag tycker det är klädsamt att jämföra äpplen med äpplen och gör man det så har priset sannerligen gått upp, det är fakta.

Jag vill bara tillägga att vid lanseringen av 1080 serien så låg Palit GameRock Premium på 7300Kr på billigaste stället Proshop. Jag kommer ihåg det bra eftersom tillgången på 1080 kort var rätt skral i början så blev det att jag köpte ett 1080 GameRock Premium. Så ledes var butikspriset på det kortet inte 5990 :- vid lansering.

Dvs Äpplen mot Äpplen ... butikspriset vid lansering för motsvarande kort.

Permalänk
Medlem
Skrivet av Implor:

@ArtMan: Måste hålla med LTT att man aldrig någonsin kommer vilja ha RTX aktiverat i multiplayer. Så det kommer bara bli ögongodis i singelplayer.

Jag är inte helt säker på det. Kan vara från spel till spel. Tänk att spela t.ex Battlefield och kunna se en motståndare speglas i en ruta eller liknande. Så klart om man kan behålla prestandan som man vill ha.

Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

@ClintBeastwood: Fast göra funktioner som ger en klar fördel till dom som har ett grafikkort känns fel.

Men visst! Jag köper ditt argument men vad skulle du välja?

Ha starka ("korrekta") skuggor och kanske kunna se något i reflektioner eller ljusa skuggor och ingen reflektion?

EDIT: Vi pratar nu FPS multiplayer.

Visa signatur

| CPU: Intel i7 7700k | RAM: Crucial DDR4 OC @2400mhz 16GB (2x8GB) | GPU: EVGA GeForce RTX 2080 XC GAMING| Mobo: MSI H110I Pro | SSD: Crucial BX200 240GB 2.5" SSD | SSD2: Samsung 850 EVO 500GB 2.5" SSD | Nätagg: be quiet! SFX L Power 600W | Kylare: NZXT Kraken X62 | Chassi: Fractal Design Nano S | OS: Windows 10 Pro

Permalänk
Medlem
Skrivet av Implor:

@ClintBeastwood: Fast göra funktioner som ger en klar fördel till dom som har ett grafikkort känns fel.

Men visst! Jag köper ditt argument men vad skulle du välja?

Ha starka ("korrekta") skuggor och kanske kunna se något i reflektioner eller ljusa skuggor och ingen reflektion?

EDIT: Vi pratar nu FPS multiplayer.

Jag skulle valt att spelet såg så rent ut som möjligt men kunde jag ställa in reflektioner lite mer avancerat skulle jag fundera på vilketsom ger mest fördel. Vanliga skuggor är bara i vägen och skymmer. Kanske missförstår din fråga?
Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

@ClintBeastwood: I dom RTX demo jag sett blir skuggor mörkare i rum. Detta är mera korrekt hur ljuset ska se ut. Men idag så har man en dold ljuskälla som lyser upp hela rummet lite lätt. RTX är mera korrekt medan "dagens" lösning gör det enklare att se om någon gömmer sig i hörn och mörka utrymme.

Kolla på Metro RTX demo på youtube så fattar du vad jag menar ;).

Visa signatur

| CPU: Intel i7 7700k | RAM: Crucial DDR4 OC @2400mhz 16GB (2x8GB) | GPU: EVGA GeForce RTX 2080 XC GAMING| Mobo: MSI H110I Pro | SSD: Crucial BX200 240GB 2.5" SSD | SSD2: Samsung 850 EVO 500GB 2.5" SSD | Nätagg: be quiet! SFX L Power 600W | Kylare: NZXT Kraken X62 | Chassi: Fractal Design Nano S | OS: Windows 10 Pro

Permalänk
Medlem
Skrivet av Dinoman:

Du menar som att 1080 och 2080 bägge två innehåller xx104 samt 8 GB minne över en 256-bit buss? Eller 1080 Ti och 2080 Ti innehåller en xx102 med 11GB minne över en 352-bit buss?

Just så, att man måste titta på vad för sorts teknik som faktiskt ingår. Snarare än vad tekniken råkar ha för namn.

Är övertygad om att BOM för 1080 år 2016 var avsevärt lägre än vad BOM är för 2080 idag. Att då 2080 är avsevärt dyrare är mest "no shit, sherlock"...

Citat:

Självklart kommer två generetioner inte ha identiska BOM:ar. Med det argumentet så går det inte att jämföra någonting. Det hade nog iofs tillverkarna gillat. Ungefär som när en arbetsgivare inte tycker att mans kall jämföra löner eftersom den ena sorterar ju strumpor medan den andra sorterar kalsonger. Inte samma BOM där inte!

Nu snurrar du till det fullständigt. Ingen har påstått att BOM:ar måste vara samma för att man ska kunna jämföra. Däremot; är man ute efter att särskilja äpplen från päron i en prisdiskussion så bör man rimligtvis i "urvalsprocessen" ta med sånt som faktiskt påverkar priset.

Permalänk
Medlem

Vet ej om seriöst.

Visa signatur

Citera för svar!

CPU: i9-9900K + Be Quiet! Dark Rock Pro 3. Moderkort: ASUS ROG Z390-F. Minnen: Corsair Vengeance DDR4 2x8GB 3000MHz. GPU: GigaByte RTX 3080 Gaming OC. SSD: Corsair MP510 500GB. HDD: WD Blue 3TB Nätagg: EVGA SuperNova G2 850W. Chassi: Corsair 4000D Airflow.

Permalänk

Har drivrutinerna kommit ut än? Vet att Shroud fick sitt kort redan för 15h sedan men han valde att inte ploppa in dem i datorerna än eftersom det inte fanns några drivrutiner ute än

Permalänk
Medlem
Skrivet av Dinoman:

Du jämför 1080 Ti och 980 Ti med 2080 icke Ti.

Svårt att jämföra modeller men så här ser det ut;

Palit GeForce GTX 1080 Ti GameRock Premium = 7 899:-
Palit GeForce RTX 2080 Ti GamingPro = 13 290:- (168%)

Palit GeForce GTX 1080 GameRock Premium = 5 990:-
Palit GeForce RTX 2080 GamingPro = 8 690:- (145%)

Jag tycker det är klädsamt att jämföra äpplen med äpplen och gör man det så har priset sannerligen gått upp, det är fakta.

https://www.matteboken.se/lektioner/matte-1/procent

Permalänk
Moderator, Testpilot

Priset är 168% resp. 145% av det gamla. Det har ökat med 68% samt 45%. Båda är rätt.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Avstängd
Skrivet av zhrooms:

Synd bara att nästan inga spel idag stödjer SLI längre, det är så gott som dött.

Wow har du citerat hela tråden.

Har för mig att man hade rätt ut det att det inte är samma som NVLINK och SLI men MVLINK har funnits många år inom server.

NVLINK kommer funka som nod om jag fattar det rätt, då kanske den ses som ett grafikkort och då behöver inte spelutvecklare göra något extra för flera grafikkort då den ses som ett. Så för mig så är det NVLINK tester som jag ser mest framemot.

Visa signatur

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow
Om mig ----> #16970666

Permalänk
Medlem
Skrivet av Implor:

@ClintBeastwood: Fast göra funktioner som ger en klar fördel till dom som har ett grafikkort känns fel.

Men visst! Jag köper ditt argument men vad skulle du välja?

Ha starka ("korrekta") skuggor och kanske kunna se något i reflektioner eller ljusa skuggor och ingen reflektion?

EDIT: Vi pratar nu FPS multiplayer.

Det är inte så tekniken fungerar. Du kan få djupare skuggor på vissa ställen och ljusare på andra, plus mer detaljer i skuggorna.

Permalänk
Medlem

@DasIch:

Som exempel ur demo. Hade det varit ett multiplayer FPS så hade jag aldrig haft RTX på. Mycket svårare att identifiera fienden i mörka rum. Börja kolla 2:44

Visst kan mörka rum göras ljusare med RTX men det är inte lika kritiskt. Som du ser är nästan alltid RTX OFF ljusare än RTX ON.

Visa signatur

| CPU: Intel i7 7700k | RAM: Crucial DDR4 OC @2400mhz 16GB (2x8GB) | GPU: EVGA GeForce RTX 2080 XC GAMING| Mobo: MSI H110I Pro | SSD: Crucial BX200 240GB 2.5" SSD | SSD2: Samsung 850 EVO 500GB 2.5" SSD | Nätagg: be quiet! SFX L Power 600W | Kylare: NZXT Kraken X62 | Chassi: Fractal Design Nano S | OS: Windows 10 Pro

Permalänk
Master of Overkill
Skrivet av superegg:

Wow har du citerat hela tråden.

Har för mig att man hade rätt ut det att det inte är samma som NVLINK och SLI men MVLINK har funnits många år inom server.

NVLINK kommer funka som nod om jag fattar det rätt, då kanske den ses som ett grafikkort och då behöver inte spelutvecklare göra något extra för flera grafikkort då den ses som ett. Så för mig så är det NVLINK tester som jag ser mest framemot.
https://devblogs.nvidia.com/wp-content/uploads/2014/11/nvlink_configurability.png

https://www.extremetech.com/wp-content/uploads/2016/09/Nvidia-claims-typical-AI-and-other-data-intensive-workloads-can-run-as-much-as-twice-as-fast-using-NVLink-for-memory-access.jpg

Du får tänka det där är Server.
Det är helt annorlunda stödja NVlink med samma minnes mängd.
Utvecklaren måste stödja det hela vägen och det är svin mycket jobb.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av Implor:

@DasIch:

Som exempel ur demo. Hade det varit ett multiplayer FPS så hade jag aldrig haft RTX på. Mycket svårare att identifiera fienden i mörka rum. Börja kolla 2:44

[.youtube]https://youtu.be/Ms7d-3Dprio?t=164[/youtube]

Visst kan mörka rum göras ljusare med RTX men det är inte lika kritiskt. Som du ser är nästan alltid RTX OFF ljusare än RTX ON.

Det är beroende av hur miljön designats. Med RTX kan du ha indirekt ljus som når skrymslen och vrår, medan vanlig rastrering kräver att detta designas för hand.

Skickades från m.sweclockers.com

Permalänk
Medlem

@DasIch: Absolute kan det skilja sig lite. Men 99% gångerna får du lättare att se fienden i FPS multiplayer med funktionen av.

Visa signatur

| CPU: Intel i7 7700k | RAM: Crucial DDR4 OC @2400mhz 16GB (2x8GB) | GPU: EVGA GeForce RTX 2080 XC GAMING| Mobo: MSI H110I Pro | SSD: Crucial BX200 240GB 2.5" SSD | SSD2: Samsung 850 EVO 500GB 2.5" SSD | Nätagg: be quiet! SFX L Power 600W | Kylare: NZXT Kraken X62 | Chassi: Fractal Design Nano S | OS: Windows 10 Pro

Permalänk
Medlem
Skrivet av Implor:

@DasIch: Absolute kan det skilja sig lite. Men 99% gångerna får du lättare att se fienden i FPS multiplayer med funktionen av.

Du kan inte dra sådana slutsatser från det material som presenterats. Resultatet handlar om hur miljöerna designats och hur många strålar man har råd att beräkna.

Skickades från m.sweclockers.com