Inlägg

Inlägg som Zcenicx har skrivit i forumet
Av Zcenicx
Skrivet av Fikaknugz:

Tjenare!

Jo det är så att jag nyligen uppgraderade till ett 970, då jag tyckte det var dags. Det jag dock undrar över, är vad skillnaden mellan den röda drak-loggan och den vita drak-loggan, är?

Den röda draken betyder att ditt är ett LE, Lite Edition, vilket betyder att kortet är lite lägre klockat och att det följer med mindre tillbehör. Kan också betyda att det inte är några spel bundlade.

Av Zcenicx
Skrivet av Mocka:

Det är väl nVinspector detta ska göras i va?

Yup.

Av Zcenicx

@goffemannen:
@mocka:
Återanvänd följande lösning (RoTR) då exakt samma profil fungerar även på Division.

Search for Rise of the Tomb Raider’s profile and change its SLI bits (DX11) to 0x080002F5. Then, press on the magnifier icon in order to reveal NVIDIA’s Undefined options. Search for 0x00A0694B and set it to 0x00000001.

Man får lägga till Divisions .exe-fil i RoTR-profilen, men annars fungerar det klockrent.

Av Zcenicx
Skrivet av Mocka:

Nu förstår jag helt och hållet vad du menar. Dock undrar jag en till sak och det är om inte det du föreslår endast gäller i prestandamätningssyfte och inte vardagligt spelande? Eller menar du mest att om jag ska kolla ifall det är fel någonstans så borde jag köra utan V-sync och maxprestanda?

Det senare, och det är bara under de förhållandena (fixed framerate på skärmen, vsync off) som man kan se den faktiska skalningen mellan singelkort och SLI. Annars syns det bara när det går som allra tyngst, vilket även om det ofta är de viktigaste tillfällena fortfarande är en mindre del av tiden man spelar.

Av Zcenicx
Skrivet av Mocka:

Min 1440p/144 går heller aldrig över pga G-sync och V-sync och jag vill inte att den ska göra det. Sen förstår jag inte riktigt vad den meningen har att göra med skillnaden mellan Single GPU och SLI, jag kör ju samma inställningar och allt. Det där med lägsta frameraten är svårt att jämföra men antar man får göra en kombination mellan average (i HWinfo64) och min (i MSI AB).

Det jag menar är följande.
Ponera att du med ett grafikkort snittar 80 FPS, har toppar på 120 och dalar på 60.
För 80% skalning skulle du alltså få ett snitt på 144, toppar på 216 och dalar på 108 (+80% rakt av).

Problemet är att du sågar av kurvan vid 144 FPS, så dina toppar är inte de 216 grafikkorten klarar utan de 144 du tillåter dem att visa. Därför kommer heller inte snittet att vara de 144 FPS som matematiken säger att du borde få. Det snittet kräver att du vid tillfällen kommer upp i 216 FPS för att motverka dipparna ner till 108.

Däremot kommer dina dalar att vara de 108 som båda korten tillsammans klarar, inte de 60 du hade med ett. Du kommer alltså att få outnyttjad prestanda i alla lägen där korten klarar 144 FPS eller mer, men all prestanda du kan utnyttja finns tillgänglig i de fall korten glider under den siffran.

Nu är detta kraftigt förenklat, men det är varför man aldrig ska prestandamäta med synkfunktioner aktiverade, för du får ett käpprätt åt skogen missvisande resultat.

Av Zcenicx
Skrivet av robbankentor:

Men ändå är ett 4GB FuryX snabbare än ett 6GB 980Ti i the division på 2560x1440 och 3840 x 2160

I specifikt det spelet, och det är också där problemet kommer. Hur mycket minne spelet behöver beror endast och enbart på spelet. Fury klarar sig bättre än de flesta andra 4GB-kort tack vare HBM, men det finns också flera exempel där Fury får problem pga sin snålare tilltagna mängd minne.

Vi kommer inte att komma till den punkten att alla spel kräver 4+ GB VRAM, inte ens i 1440p, så länge många spel släpps för att vara spelbara på lite äldre (läs 2-4 år gamla) datorer. Det är en väldigt stor del av marknaden och väldigt många spel flyter alldeles utmärkt på 2 GB VRAM även idag, särskilt om man inte pressar texturkvalitet och AA som en galning. Men det finns fler och fler exempel på spel som verkligen äter VRAM också.

Inte minst finns det många som har ett "ser-inte-märkbart-bättre-ut-men-dödar-grafikkortet"-alternativ (läs Very High på texture quality i Rise of the Tomb Raider, Extreme Tesselisation i Crysis 2, osv osv osv).

Av Zcenicx
Skrivet av Mocka:

Jag gjorde det och rekommenderar det inte till någon faktiskt. Prestandavinsten per krona är dålig i de flesta spel jag testat och bra i några få spel.

(Single GPU 1476MHz vs SLI 1349MHz FPS @ 1440p/144Hz)
FC Primal : 65/79
The Division : 80/105
Witcher 3 : 75/100
AC Unity : 65/85
SW Battlefront : 110/144
BDO : 75/100

Som du ser är det inga lysande siffror direkt.

Intressant med tanke på att jag allt som oftast ser 70-90% skalning med mina. ~55 till ~100 FPS i snitt i RoTR exempelvis. Men visst finns det exempel på sekvenser även i det spelet när grafikkorten inte är flaskhalsen utan CPU, och då gör SLI självklart mindre nytta. Samma gäller spel som är CPU-tunga, i vilket fall man får justera inställningarna istället. Man får lite högre framerate men med betydligt högre grafikinställning.

Med det sagt blir det fel att bara titta på snittframeraten, för kör man V-Sync eller G-Sync sågar du av du topparna vilket gör att snittet blir artificiellt lågt, särskilt jämfört med ett ensamt kort som inte blir lika hårt strypt. Min 1440p144 G-Syncskärm går aldrig över 144 FPS, även om korten i många fall skulle klara av det.

Därför behöver man titta på lägsta frameraten och där gör SLI, enligt min 6 månader långa erfarenhet med dubbla 980 Ti, enorm skillnad. Jag märker direkt om jag glömt att slå på det igen efter en drivrutinsuppdatering. Jag går med på att skillnaden i många fall inte är 90% framerate, men det är oftast 50% plus skillnaden mellan High och Very High.

Vad gäller att inte ha 144 FPS @ 144 Hz... det är därför man har en G-Syncskärm.

Av Zcenicx
Skrivet av robbankentor:

Tja

Diskutionen har varit lång när det gäller GPU minne. Många har varnat för kort med "bara" 2Gb eller 4GB även jag.

Men efter förra veckans släpp av The division och Hitman börjar jag undra, när behöver vi mer än 4GB i spel.

Ett 4GB AMD kort spöar ett 12GB Nividia kort i 3840x2160 även ett gammalt R9290x med 4GB hänger med bra i 3840x2160

//

Det gör redan skillnad, men det gör oftast så i 1440p eller högre, och i spel som faktiskt kan belasta minne.
Rise of the Tomb Raider är ett högaktuellt exempel, men det finns ganska många fler som tycker om mer än 4 GB minne i 1440p.

Vad gäller 4k är svaret snarare så att mängden minne inte är flaskhalsen, utan den är att inget kort klarar av att hantera den upplösningen i spelbar (än mindre njutbar) framerate. Skulle man kunna pressa 4k lika hårt som man kan 1440p skulle man börja se minnet göra mer skillnad. Tyvärr är däremot tester av Quad-SLI 980 Ti vs Quadfire Fury rätt... ovanliga.

Av Zcenicx
Skrivet av XFTality:

Är inte de där korten GK210? Alltså inte GM200 som man finner i Titan X och 980Ti.

Edit: Whoops, det där var K6000! Det finns alltså Maxwell i Quadro-form, intressant.

Japp, M:et i modellnamnet är rätt talande. F för Fermi, K för Kepler och M för Maxwell.

Av Zcenicx
Skrivet av Naion:

Jag tackar för all hjälp jag fått. Lämnade tillbaka kortet och fick ett nytt. Blev evga 980ti oc 2.0 bra val enligt er?

Skickades från m.sweclockers.com

http://www.inet.se/produkt/5411414/evga-geforce-gtx-980-ti-6g...

Jag kan inte med hedern i behåll säga att det är ett dåligt val.

http://i.imgur.com/BnJXPls.jpg

Av Zcenicx
Skrivet av XFTality:

Jag är rätt så säker på att de bästa GM200-kretsarna blir GTX Titan X och de som är sämre, GTX 980 Ti.

Det brukar oftast vara så att de bästa blir Tesla/Quadro-kort, de som är sämre blir olika GTX-kort av olika rang. Med GM200-kretsen har Nvidia dock valt att slopa Tesla/Quadro helt och hållet, mycket troligt på grund av dess mycket låga Double Precision-prestanda.

Fel. GM200 används i bådadera.
Quadro M6000
Tesla M40

Maxwell är inte sämre än Kepler på Double Precision, tvärt om. Ett Quadro K5000 (GK104) har en DP-prestanda på 90,4 GFLOPS medan ett Quadro M5000 (GM204) ligger på 134,4 GFLOPS (alltså är Maxwell ~50% snabbare än Kepler). M6000 vs K6000 skiljer mindre (190 vs 173 GFLOPS eller 10%), men Maxwell är fortfarande snabbare.

Vad som särskiljer Maxwell är att Titan X är DP-strypt, det är inte Keplers motsvarigheter Titan, Titan Z eller Titan Black, men den strypningen påverkar inte Maxwellvarianterna av Tesla- och Quadrokorten.

Av Zcenicx
Skrivet av Gustav.Henrik:

Jaha, trasigt kort då lämna tillbaka det på ångerrätten så slipper du reklamera, kan vara bra att tänka på då affären har rätt att reparera kortet 2 gånger vilket kan ta månader.

Det är ju lämpligt, eller...? Du tror inte att det är exakt det som förra ägaren av kortet gjorde, vilket är varför TS sitter med ett trasigt?

Av Zcenicx

Frågan är om det uppkommer någon annan gång än vid 3DMark. Mina 980 Ti kan gnälla lite just i Fire Strike, de kan bokstavligen SKRIKA i Ice Storm och Cloud Gate, men det har inte hänt under normalt spelande.

Av Zcenicx
Skrivet av Jerkanftw:

Förstog att jag inte kommer kunna köra på jättehöga inställningar, men vill kunna köra i högre än vad jag gör nu bara. Tack för svar

Betydligt, inte minst tack vare 6 GB VRAM, där 760 rent praktiskt bara kan utnyttja 2 och egentligen saknar prestandan att använda ens det. Du pratar om mer än dubbelt så hög faktisk prestanda.

Av Zcenicx
Skrivet av Naion:

tjena, jag tog över kortet till min granne som har 2st 8 pins, och redan har ett 980. där starta datorn inte alls. och det började lukta bränt.. Kortet är det verkligen fel på.

Tja, det fanns aldrig några garantier att det inte var fel på det. Synd på bortslösad tid bara.
Men se till att få rätt adapter när du byter kortet, för det är fortfarande fel.

Av Zcenicx
Skrivet av ruf0ns:

@fantomsmurfen:

Okej.. men som det verkar så har jag endast märkt det i detta spelet inte i några andra som ex Far Cry Primal, GTA IV eller liknande spel har jag märkt detta.

Skulle kunna misstänka minnena möjligen som du säger, svårt att tro att det är CPU.

Vad kör du i för upplösning, och vilka inställningar? RoTR är ungefär lika snällt mot grafikkort som Crysis var på sin tid, och eftersom det faktiskt är open world så belastar det CPU rätt hårt dessutom.

Av Zcenicx
Skrivet av Ruzikx:

Okej, men källa på att två likadana kort fungerar bättre än två olika?

Då jag inte orkar googla saken källhänvisar jag till ~8 års erfarenhet av SLI (sedan 8800 GT) och längre tid än så på detta forum.

2x 8800 GT - Asus + Galaxy
Fungerade så bra SLI gjorde 2008, båda korten av referensdesign.

2x 9800 GTX+ - 2xXFX
Fungerade bra, men ett av korten brann upp, hade ihjäl både nätagget och SLI-porten på det andra kortet, så... aldrig mer XFX.

3x GTX 260/216 - 2xAsus, 1xMSI, sedan 3xAsus
Fick Asuskorten som utbyte på ovanstående, kompletterade med ett MSI på utförsäljning. MSI-kortet gick inte att köra stabilt i SLI med någotdera av Asuskorten, men fungerade bra ensamt och dugligt i 3-way. Bytte till 3-way Asus vilket fungerade klanderfritt.

3x GTX 570 - KFA2+Zotac+EVGA.
KFA2-kortet fungerade med Zotackortet men inte med EVGA-kortet, Zotackortet fungerade bra med endera av de andra, men alla tre fungerade bra i 3-way. Den du... *shrug*.

2x GTX 680
Dubbla MSI-kort. Helt smärtfritt i tre års tid.

2x GTX 980 Ti
Dubbla EVGA-kort. Återigen, helt smärtfritt.

Nämnvärt är att alla de tre senaste lösningarna (570, 680, 980 Ti) har suttit på i övrigt samma dator, dvs den i signaturen.

Av Zcenicx
Skrivet av Naion:

Men hur blir det med det jag sa att om jag kopplar in 8 pin i den högra så blir den error som du sa.
Men i vänster att den startar upp och ger ingen bild bara.

Det kan bero på att inte allt på ett grafikkort är kopplat till alla tre strömmatningspunkterna, och vissa saker sitter på en specifik pinne för strömmatningen. Hade det bara varit en fråga om att "få ström" så hade kortet kunnat starta helt utan strömsladdar eftersom det faktiskt får en del ström via moderkortet (PCIe-porten på moderkortet kan ge lika mycket ström som en 6-pins PCIe-kontakt).

En idé du faktiskt kan prova med, det fungerar i vissa fall, är att helt enkelt sätta in 6-pinskontakten i 8-pinsuttaget på grafikkortet och se vad som händer. Du sätter då 6-pinnaren på den "högra sidan" av kontakten. Det passar alldeles utmärkt, det är så en 6+2-pinskontakt fungerar, och ofta fungerar det att starta korten så även om det i vissa fall gör att de throttlar eller vägrar boosta.

Kortet kommer då att veta att det sitter en 6-pinskontakt där, och då ska den förstås få en "korrekt" matning. De ytterligare två pinnarna är bara jord (egentligen bara där för att kortet ska känna av att det är en grövre kabel som är gjord för högre ström) så alla +12V-pinnarna strömförsörjs via en 6-pinskontakt.

Av Zcenicx
Skrivet av Naion:

Så vad behöver jag köpa? jag fick med den ena du länka. Behöver jag köpa den molex du länkade

Ah! Det förklarar varför det inte fungerar, för i en 2x6-pinsadapter är inte båda 6-pinskontakterna kopplade till alla stiften i 8-pinskontakten, och grafikkortet kommer att skicka en signal om felaktig strömförsörjning till moderkortet under POST, vilket är varför du inte kan starta datorn då.

Grafikkortet kan känna av att bara en kontakt är i, i vilket fall det helt enkelt skickar ett "not-ok" och vägrar starta, i vilket fall du fortfarande kan boota eftersom din dator har integrerad grafikkrets som UEFI kommer att välja istället. Om båda kontakterna sitter i, men vissa pinnar inte ger ström, så skickar den ett "error" och då vägrar hela datorn starta)

Ja, du måste ha en molex till 6-pinsadapter och fylla andra halvan av 8-pinsadaptern med.

Av Zcenicx
Skrivet av Bloopy:

Dagens nätagg kör singel 12v lina så att du splittar har således bara påverkan på själva kablage å inte självaste nätagg.

Funkar med 1x8 men ingen annan kombination låter som att 2´a inmatning på GPU är sönder.
Kräv nytt.

Umm... nej. Det finns nätagg som kör single-rail, men alla gör det inte, och TS OCZ-agg gör det inte heller.

OCZ ModXStream PRO 700W 80+
Internal +12V Rails: Dual Rail
Rail 1 +12V: 25 A
Rail 2 +12V: 25 A