Zotac Geforce GTX 1080 AMP! Extreme

Permalänk
Medlem
Skrivet av JonasT:

Vid 2 560 x 1 440 pixlar är Zotac-kortet i snitt 9 procent snabbare än Nvidias referenskort, så det är inte helt långt ifrån den 10-procentiga frekvensökningen. Titan X är i snitt 16 procent snabbare än Zotac vid samma upplösning, vilket inte heller är jättelångt från den teoretiska beräkningskraftsskillnaden på 14 procent mellan korten.

Okej, så din teori är att helt enkelt CPU inte hinner "skala" upp dessa 10% lika bra i 1080p? Kan ju ligga lite i det, så det är väldigt spelberoende.

Permalänk
Master of Overkill
Skrivet av Yatagarasu:

Har lirat följande spel sedan jag byggde min dator i sign(FPS är med allt på ultra/1440p);

World of Warcraft (55-86fps)
DOOM (110-120fps)
Fallout 4 (48-82fps)
Battlefield 1 / 4 (BF1: 58-97fps ( BF4: 100+fps)
Overwatch (165fps - Det är max Hz på min G-sync skärm)
Witcher 3 (68-88fps)
Dragon Age: Inquisition (52-110 fps)

Dessa är några exempel. Men "nya" AAA spel, speciellt open world spel, är otroligt svårdrivna i högre än 1080p - Iaf så länge man vill dra upp skuggor, texturer och kantutjämning (jag är en av dem som anser att 1440p är inte tillräckligt för att inte behöva köra någon form av Anti-Aliasing).
Spelen ser o andra sidan fantastiska ut - Men att hålla sig över 60 FPS är svårt ibland

Wow typ bara CPU och SLI stöd i wow suger verkligen.

Fallout SLI är rip typ.

Overwatch 0 mening med SLI

Witcher super tungt spel.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av tvelander:

Wow typ bara CPU och SLI stöd i wow suger verkligen.

Fallout SLI är rip typ.

Overwatch 0 mening med SLI

Witcher super tungt spel.

Då undrar man verkligen... ska du gå på knäna och ta bara "ett" kort (Titan kanske)???

För gemene man så räcker ju en sådan 1080 som denna i artikeln långt, men jag vill minnas att du har lite högre krav

Permalänk

Nu vill jag för skojs skull se ett 1080 i lågprofil som tar upp lika många kortplatser och med liten eller utan överklock

Skickades från m.sweclockers.com

Permalänk
Testpilot
Skrivet av tvelander:

Wow typ bara CPU och SLI stöd i wow suger verkligen.

Fallout SLI är rip typ.

Overwatch 0 mening med SLI

Witcher super tungt spel.

WoW's SLI stöd är "OK" - Inte bra, men får iaf ut en 20-30 till FPS gentemot helt avslaget (beroende på område).

Fallout verkar vara lika skit optimerat som som Skyrim var för sin tid, mods eller inte, får alltid FPS drops när det kommer till städerna

Håller med om Overwatch, skulle säkert kunna driva 165fps med ett kort.

Witcher 3 är ett rätt tungt spel, men det är som dag och natt mellan 1080p och 1440p. Tappar över 40% FPS bara jag slår om från 1080 till 1440 - Detta med Hairworks avslaget.

-------------------------------------------------

"Bottom line" är att 1440p/100+FPS är otroligt svårt att komma upp i moderna spel, även med ett single 1080 eller 1070 SLi.
Förstår inte riktigt folk som vill hoppa på 4K gaming tåget redan, om man inte är sugen att spela i 30FPS då. Som jag ser det behöver vi minst Titan XP gånger två i prestanda i ett singlekort för att 4K@60 / 1440p @ 120+ ska vara hållbart - Det förutsätter att spelen inte blir mer krävande innan nästa konsolgeneration.

Det hjälper inte heller att nVidia mer eller mindre dödar all form av SLi med att officiellt begränsa till endast 2 kort och att deras SLi implementation är väldigt tvetydlig då de moderkort/CPU's som finns inte orkar med bandbredden som krävs.

Från LinusTechTips SLi guide; https://linustechtips.com/main/topic/197327-the-sli-informati...

So, I keep stating that there is a bandwidth issue with regards to SLI and current generation cards. What the issue is, is that a lot of tech requires a lot more bandwidth between cards than is currently available to work properly. Cards transfer data between the PCI/e bus and the bridge (if one is present). The standard SLI bridge is clocked at 400MHz and grants approximately 1GB/s of bandwidth between GPUs + bandwidth from the PCI/e connection. This is not enough for the amount of data in each frame (frame buffer data), or relevant memory between cards, to be transferred between frames for new tech, or technologies such as Temporal anti-aliasing in general (though we've seen TXAA and in some cases, albeit at a large performance hit, TAA function in SLI). It has gotten to the point where forcing SLI in certain recent unsupported games/game engines or at certain resolutions (usually, but not always, above 1080p) literally requires PCI/e 3.0 x16/x16 for the cards in SLI to even grant positive scaling. Yes, that means that negative scaling (less FPS than single GPU) happens otherwise. This means your CPU must cost a minimum of $500 USD for the intel mid-tier enthusiast CPU of any generation (4930K, 5930K, etc) and AMD CPUs which only use PCI/e 2.0 lanes cannot even be considered.

AMD offered a solution; one that I consider to be the best possible option. They decided to make use of the PCI/e bus bandwidth to talk to each card by configuring the memory in a certain way, which they call XDMA (Crossfire Direct Memory Access). This introduces a latency issue, but it's one that even AMD has found ways to minimize/eliminate, and I am certain nVidia could do the same if they cared (they apparently do not). In a PCI/e 3.0 x8/x8 situation (what a user is most likely to be using with a mainstream intel CPU as is the most popular PC configuration for gamers) a user would have 7.88GB/s bandwidth in this way, which is far more than the 900MB/s or so that the crossfire bridge granted previously, and far more than the 1GB/s that the SLI bridge grants. It requires the memory on the card to be designed in a certain way, however, so it cannot be retroactively added as a "technology" to any GPU. Also, as an added benefit, XDMA also helps to fix framepacing in multi-GPU, making it more smooth to use.

nVidia also made a solution to improve interconnectivity between cards... NVLink. However because NVLink replaces PCI/e, it is only sold on enterprise boards intended for use with Tesla cards. Supercomputers, to simplify. You are simply not getting a pair of gaming cards into one. Since it is a replacement for PCI/e, and apparently requires proprietary card connections, and it inevitably costs more money to have it, it would never work for mass-produced consumer boards. Whether this requires XDMA-style memory configurations or not, I do not know. But either way, it can't be sold to people like me.

So, recognizing the need for more bandwidth, but not being able to sell us simple XDMA-style cards for more $$, they decided to simply improve the bridge. There was already an overclocked LED bridge, that runs at 650MHz up from the standard 400MHz, granting 62.5% more bandwidth for 1.625GB/s. nVidia simply doubled up the connectors to use both SLI fingers and presto! 3.25GB/s bandwidth between cards! This is a huge step up from 1GB/s, however nowhere near the 7.88GB/s to 15.76GB/s that is present in XDMA-style x8/x8 or x16/x16 configurations respectively. Also, this effectively killed three-way and four-way SLI. I thoroughly dislike this approach that is being made, and it further reinforces my belief that SLI is basically being discarded by devs and nVidia alike. This is nothing but a band-aid on the bandwidth issue, and developers have zero reason to be coding AFR-unfriendly rendering techniques either. I hope things make a turn for the better in the future, but as of right now, things are exceedingly bleak. It also does not help that they have no competition and only need do the bare minimum that is necessary to get the population to love them, and most larger voices in tech and the majority of PC gamers don't care about SLI.

Dold text
Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | Leobog Hi75 | Deathadder V2 Pro >

Permalänk
Master of Overkill
Skrivet av Paddanx:

Då undrar man verkligen... ska du gå på knäna och ta bara "ett" kort (Titan kanske)???

För gemene man så räcker ju en sådan 1080 som denna i artikeln långt, men jag vill minnas att du har lite högre krav

Jag har inte 4x WAY bara för spel, jag har det för är coolt + intresse och gillar hårdvara

@Yatagarasu vadå 55-85 FPS med ett 1070?? visa mig dina settings i wow.

Sen att 1070 inte skulle maxa wow är BS, det är 3 CPU spel och så länge man inte använder 200% scaling så räcker det 100 %

WOW SLI funkar bara bra i 3 skärms läge.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Testpilot
Skrivet av tvelander:

Jag har inte 4x WAY bara för spel, jag har det för är coolt + intresse och gillar hårdvara

@Yatagarasu vadå 55-85 FPS med ett 1070?? visa mig dina settings i wow.

Sen att 1070 inte skulle maxa wow är BS, det är 3 CPU spel och så länge man inte använder 200% scaling så räcker det 100 %

WOW SLI funkar bara bra i 3 skärms läge.

3 CPU spel bör inte vara ett problem med överklockad i7 6700k, tycker jag då egentligen. Speciellt då jag inte ens kommer upp i 100% utilization på kärnorna.

Här är mina WoW settings iaf (Satt på 51fps när jag tog bilderna);

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | Leobog Hi75 | Deathadder V2 Pro >