Världens sämsta Gtx 970?

Permalänk
Antielefant
Skrivet av FatherOfThree:

Enligt swecs tester är skillnaden är 115W vid väggen, dvs med alla övriga förluster inräknade
http://www.sweclockers.com/recension/20095-pny-geforce-gtx-98...

Jag tog upp TDP på korten, inte testvärden då dessa varierar från dator till dator och beroende av effektivitet. Men visst, säg att det skiljer 115 W. Det betyder fortfarande att skillnaden i strömförbrukning mellan 970 och 290X är större än vad CPUn i testriggen drar.

Citat:

Zcenicx, jag tror du har ärligt uppsåt,
men det är irriterande ofta som nVidiakortens fördelar överdrivs,
och ev nackdelar närmast negligeras här på Sweclockers.

Ett riktigt tråkigt exempel är tex Dimestams inhopp i GTX 970 3,5 GB-debatten...

Som jag skrev ovan, 3,5 GB-debatten är överdriven och särskilt så i att många inte förstås hur onormalt det är att folk kommer att stöta på det problemet innan de redan kört in i andra. Jag försöker att vara nyanserad, men jag tror att ett direkt problem här är att det är svårt att vara helt neutral när vi börjar se AMD tappa mer och mer mark. Det är som alltid en källa för ständig och hetsig debatt, men min åsikt är:
Radeonkort är bättre för bitcoinmining. De kan mäta sig med Nvidias motsvarande kort vad gäller ren prestanda. De har ett jämbördigt system för flerskärmsstöd i det att Eyefinity har andra fördelar och nackdelar än Surround.

Vad mer kan de hävda sig med? De ligger efter, de ligger ganska långt efter, och de kastar enorma pengar de inte har på projekt som bokstavligen går upp i rök (typexemplen är förstås TressFX och Mantle).

Jag upprepar vad jag skrivit i flera andra trådar; AMD försöker att kriga mot både Intel och Nvidia. I det första fallet är det David mot Goliat, Intel är tio gånger större än hela AMD och lägger mer i R&D per månad än vad AMD gör per år. I det andra fallet har AMD faktiskt en högre omsättning, men Nvidia lägger fortfarande 30% mer på R&D än vad hela AMD gör. De gör för den delen en större vinst än vad AMD gör förlust, vilket säger en del när AMDs förluster ligger i halvmiljarddollarklassen. Problemet är rent krasst att R&D kostar pengar och AMD har som det ser ut idag inte råd att hänga med.

Observera att jag inte tycker att det här är en bra situation. Grafikkortsmarknaden börjar likna processormarknaden, och precis som Intel kan parera AMD med sina "små" processorer börjar Nvidia kunna göra det med sina "små" grafikkretsar. Resultatet av den situationen är enkel att visa på, den ser vi i vilka prislappar Nvidia kan sätta på sina Titankort, och att de precis som Intel kan fokusera på strömsnålhet (vilket är viktigt för den mobila marknaden) istället för prestanda (vilket är vad vi räknar på entusiastmarknaden).

Skrivet av Vnox:

Måste bara kommentera något som egentligen är OT, då jag stör mig när folk sprider felaktig information:

När det behövdes 4GB vram för att kunna köra Skyrim med flertalet moddar på 1080p för över två år sedan känns "De flesta kommer inte nå den gränsen" (angående 3.5GB vram) som ett felaktigt uttryck, det samma gäller även "överdrivet problem".

/snip/

Som sagt, jag vill inte starta en diskussion egentligen. Jag vill bara rätta den felaktiga information jag anser att du spred med ditt inlägg, då det var precis sådana inlägg jag såg överallt för två år sedan när folk sa till 680-köpare att "2GB vram kommer man att klara sig med i flera år".

Behövdes det eller kunde spelet fylla det? Jag vill nämligen minnas att även om man kunde se spelet fylla upp minnet så gjorde det inte ett dugg för den faktiska frameraten (jämfört 780 vs Titan, vilket förutom 3/6 GB minne är samma kort). Spelmotorer är inte dumma, de kastar inte ut gamla texturer ur minnet om det finns ledigt minne kvar att tillgå, precis som Windows inte tömmer ut gammal information ur ditt RAM-minne innan minnesplatsen faktiskt behövs till något annat.

GTX 680 fyllde 3 år den 22 mars, och 3 år är per definition "flera år". Jag kör två själv och jag stöter sällan på problem med att VRAM inte räcker till - eftersom jag kör det allra, allra mesta i 1080p144 (inklusive, haha, ett kraftigt moddat Skyrim! ) Vill jag få ut 144 FPS kan jag inte belasta korten så hårt att VRAM inte räcker till - det orkar inte två 680-GPU'er. Men... det gör inte så mycket. Jag får runt 100 FPS i DA:I med samma inställningar som Swec testar, 130-144 med lite custominställningar. Konstant 144+ i Bioshock om jag drar ner DDOF ett snäpp.

Jag har två tre år gamla grafikkort, jag spelar dagens nyaste titlar i nära nog högsta inställningarna, och den enda anledningen att jag dreglar lite över 980 Ti är för att jag är både certifierad prylbög och har mer än nog pengar på banken för att köpa två om jag vill. Jag står väldigt fast vid att 2 GB räckte i flera år. Det räcker även idag, sett till vad grafikkortet i övrigt orkar driva, men vill man så kan man pressa ett 2 GB-kort förbi vad det klarar idag. Enkelt, det är bara att dra på för hög AA eller en massa DOF.

Men visst, hade jag haft en ROG Swift hade jag nog redan bytt till 2x980. 1440p144 med G-Sync är inte alls en otrevlig upplevelse. 4k rör jag däremot inte med tång, inte bara för att 2xTitan X inte orkar driva det utan för att det känns ryckigt att spela i 60 Hz när man är van med 144.

Citat:

Dessutom tycker jag att det är ett väldigt stort fel att dom säljer det som ett 4GB-kort när endast 3.5GB fungerar "normalt" och det är något som jag principiellt skulle kalla för "skit", eftersom att det är falsk marknadsföring.

Jag säger inte emot dig, och jag tycker också att det är falsk marknadsföring. Kortet blir dock inte sämre för det.

Citat:

Det är jättebra kort för de som sitter på 1080p och inte använder mer än 3.5GB (något som snart alla kommer att göra), men kortet är "skit" om man tänker framtids-perspektiv och SLI-möjligheter samt vid högre upplösningar. Något som alla jag känner och vet alltid lägger en tanke på, även om de eventuellt aldrig kommer dit själva.

1: Det finns inget framtidsperspektiv i grafikkortsvärlden, det är den del av din dator som blir föråldrad först.
2: Det finns inget bättre eller mer framtidssäkert kort att köpa för 3500:-
3: 970 fungerar inte ett dugg sämre i SLI bara för att de sista 512 MB minne inte går att använda. Då skulle 780 Ti SLI vara en dålig kombo och det är det absolut inte.

Citat:

Sedan är det i princip lika snabbt som ett av mina 290'n (standard mot standard), så att det slår kort som är två år gamla skulle jag inte kalla för en bedrift, även om det är självklart något att räkna med om man måste köpa ett kort på direkten.

Standard mot standard, men ett referens 970 klockar 30% medan ett stock 290/290X inte ens orkar med sin egen boost utan att throttla.
290/290X är enbart ett alternativ som tredjepartskort, och då måste du jämföra mot tredjeparts 970'or.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Gojsenmojs:

Wow, bör man känna sig som en vinnare när man har 80,0% ASIC Quality?

82.4% på mitt Gtx 560 Ti

Permalänk
Skrivet av Vnox:

När det behövdes 4GB vram för att kunna köra Skyrim med flertalet moddar på 1080p för över två år sedan känns "De flesta kommer inte nå den gränsen" (angående 3.5GB vram) som ett felaktigt uttryck, det samma gäller även "överdrivet problem".
Dessutom tycker jag att det är ett väldigt stort fel att dom säljer det som ett 4GB-kort när endast 3.5GB fungerar "normalt" och det är något som jag principiellt skulle kalla för "skit", eftersom att det är falsk marknadsföring.

Minns du vilka moddar? Det där vill jag hemsk gärna prova.
Jag har testat med alla tunga spel jag äger för att försöka få slut på mina 3,5GB sedan jag skaffade kortet, hittils har det gått jättedåligt.
(det går såklart, men min fps dyker ner till långt under spelbart en bra bit innan dess)

Visa signatur

Dator:
*Censurerad av jantelagen*

Permalänk
Medlem
Skrivet av Zcenicx:

I övrigt är kortet i entusiastutförande snabbare än allt annat på marknaden oräknat 980 och Titan X.

Tröttsamt med konstant överdrift, 970 är ett utmärkt kort, men det har marknadsförts falskt samt borde ha en större mängd minne.

290 och 290X drar jämnt med 970, vid OC så är 970 bättre i 1080p, vid 1440p och uppåt är fortfarande 780ti och 290X bättre, oavsett OC utfall tack vare minnesmängden. Särskilt 780ti var ett fynd mot slutet när dom reades ut. Maxwells kompressionsteknik är den största vinningen, men i RÅ kraft är 780ti ohotat i den jämförelsen.

Sedan nämner du ÖHT inte elefanten i rummet, 295X2, som för 5995 kr fullständigt krossar både Titan X och 980. Standardbortförklaringen är att "kan ej jämföra dubbel gpu kort med singel blabla" men givetvis kan det göras, ytterst handlar det om prestanda / krona. Titan Z var ju ett fullständigt skämt och blev en kalkon tyvärr. 295X2 presterar över båda, för en väsentligt bättre peng. 295X2 är ett fantastiskt kort, ren och skär ingenjörskonst.

980ti tror jag blir den största vinnaren i denna generation, tills 395X2 kommer.

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Skrivet av Aeig:

Sedan nämner du ÖHT inte elefanten i rummet, 295X2, som för 5995 kr fullständigt krossar både Titan X och 980. Standardbortförklaringen är att "kan ej jämföra dubbel gpu kort med singel blabla" men givetvis kan det göras, ytterst handlar det om prestanda / krona. Titan Z var ju ett fullständigt skämt och blev en kalkon tyvärr. 295X2 presterar över båda, för en väsentligt bättre peng. 295X2 är ett fantastiskt kort, ren och skär ingenjörskonst.

980ti tror jag blir den största vinnaren i denna generation, tills 395X2 kommer.

http://www.extremetech.com/wp-content/uploads/2015/03/MetroLa...

Varför saknas R9 290x CF och GTX 970 SLI på den bilden?

2 st GPUer som kan fås för 6000kr är ju 2 st GPUer som kan fås för 6000kr.

Visa signatur

Dator:
*Censurerad av jantelagen*

Permalänk
Medlem
Skrivet av n_sandstrom:

Varför saknas R9 290x CF och GTX 970 SLI på den bilden?

2 st GPUer som kan fås för 6000kr är ju 2 st GPUer som kan fås för 6000kr.

I följande bilder finns 970 i SLI med.

Kan man köpa två st 970 för SLI för under 6Tkr är det gångbart, men minnet är fortfarande endast 3,5GB, och enda anledningen till att köpa SLI är för högre upplösningar, och där blir minnesmängden ett eventuellt problem.

Två st 290X presterar i princip likvärdigt med ett 295X2, renderingstiderna kan vara sämre dock, men det är endast med ett fåtal procentenheter. Har sannolikt med konstruktionen av 295X2 PCB och integreringen av bryggan att göra.

För övrigt måste jag säga att två st 780 Ti i SLI när dom låg omkring 3,5 Tkr st hade varit den bästa lösningen, där snackar vi brutal prestanda per krona.

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Skrivet av Aeig:

I följande bilder finns 970 i SLI med.

Kan man köpa två st 970 för SLI för under 6Tkr är det gångbart, men minnet är fortfarande endast 3,5GB, och enda anledningen till att köpa SLI är för högre upplösningar, och där blir minnesmängden ett eventuellt problem.

Två st 290X presterar i princip likvärdigt med ett 295X2, renderingstiderna kan vara sämre dock, men det är endast med ett fåtal procentenheter. Har sannolikt med konstruktionen av 295X2 PCB och integreringen av bryggan att göra.

För övrigt måste jag säga att två st 780 Ti i SLI när dom låg omkring 3,5 Tkr st hade varit den bästa lösningen, där snackar vi brutal prestanda per krona.

Du missar att min poäng mot varför det inte blir rimligt att jämföra 295X2 mot single-kort. Det ÄR mer elller mindre att ge sig in på CF/SLI i jämförelseväg.
CF för små (men väl ventilerade) datorer.

Är 4 GB extremt mycket mer än 3,5?
Visst, 3,5 är för lite för att SLI ska kännas framtidssäkert. Men med samma mått ligger samtliga kort på 4GB inte vidare långt efter.
När 970 SLI slår i minnestaket har 295X2 inte långt kvar.

Edit: hur skulle 780 Ti vara bättre? Var det inte allt med under 3,501 MB Vram som inte skulle hålla i SLI?

Visa signatur

Dator:
*Censurerad av jantelagen*

Permalänk
Antielefant
Skrivet av Aeig:

Sedan nämner du ÖHT inte elefanten i rummet, 295X2, som för 5995 kr fullständigt krossar både Titan X och 980. Standardbortförklaringen är att "kan ej jämföra dubbel gpu kort med singel blabla" men givetvis kan det göras, ytterst handlar det om prestanda / krona. Titan Z var ju ett fullständigt skämt och blev en kalkon tyvärr. 295X2 presterar över båda, för en väsentligt bättre peng.

Helt rätt, det gör jag inte, och anledningen är inte att man inte kan jämföra dubbelmackor med singelkort (även om man i vissa fall bör det, exempelvis fungerar inte Freesync med dubbla GPUer och 4k + CF/SLI har barnsjukdomar).
Men, ska du dra upp 295X2 ska du inte jämföra med ett singelkort, då får du jämföra med andra dubbelgpu-lösningar, och den som är mest uppenbar är förstås 970 SLI (och den som inte har nätagg för 970 SLI har inte ett nätagg för 295X2 - monstret drar över 500 watt!).

Två 970'or kostar en tusenlapp mer än ett 295X2 (2x 3495:- vs 5995:-) och två stockklockade 970'or presterar identiskt med ett 295x2 i 1440p.
http://www.sweclockers.com/image/diagram/9476?k=eae560e100572...
I 4k vinner ett 295X2, men återigen anser jag att 4k inte är i närheten av moget nog att bygga speldator för. 1440p har bara precis kommit dit.

Det bör dock påpekas att 295x2 i praktiken är omöjligt att överklocka, medan ett standard tredjeparts 970-kort är klockat ~10% från fabrik och går att vrida upp över 25% (läs 1300+ MHz) utan några problem. Rent praktiskt fick du alltså 25+% högre prestanda för 17% högre pris, så i reell prestanda per krona vinner 2x970 över 295x2 - i allt utom 4k, för där kommer de "bara" ifatt.

Citat:

295X2 är ett fantastiskt kort, ren och skär ingenjörskonst.

295X2 är ett bevis för vad man kan göra när man skiter fullständigt i vilka standarder som gäller (inklusive ATX-standarden) och tillverkar ett kort som drar 500 watt när standarderna som finns säger att kortet max får dra 300. Det sagt säger jag inte emot dig, det är ett imponerande kort på samma sätt som Ares och Mars är det. Den enda egentliga skillnaden mellan det här och ett sådant är att det inte står Asus ROG på det.

Skrivet av Aeig:

...enda anledningen till att köpa SLI är för högre upplösningar, och där blir minnesmängden ett eventuellt problem.

Skitsnack, en väldigt stor anledning att köpa SLI (och den folk SKA köpa det för) är för 144 Hz. Högre upplösning slår fel oavsett vilket kort du köper, för det kommer alltid ett nyare spel som pressar gränserna längre än vad korten egentligen klarar. Alltså är målet folk egentligen borde satsa på 1440p144 idag (högre än 2160p60 är omöjligt oavsett kort, de kan inte ens presentera det) och där är 970 ett underbart kort att se arbeta.

4k är trevligt att titta på, men 60 Hz är inte kul att spela i, inte ens med sync.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av n_sandstrom:

Du missar att min poäng mot varför det inte blir rimligt att jämföra 295X2 mot single-kort. Det ÄR mer elller mindre att ge sig in på CF/SLI i jämförelseväg.
CF för små (men väl ventilerade) datorer.

Är 4 GB extremt mycket mer än 3,5?
Visst, 3,5 är för lite för att SLI ska kännas framtidssäkert. Men med samma mått ligger samtliga kort på 4GB inte vidare långt efter.
När 970 SLI slrt i minnestaket har 295X2 inte långt kvar.

Varför är det inte rimligt, det handlar endast om prestanda per krona, dvs de flesta köpare har en budget, och därefter söker dom flesta rationella köpare maximal prestanda för sina pengar. Givetvis finns det andra aspekter, somliga vill ha små system, tysta system, svala system, osv, men en rak jämförelse med 6000 kr som budget innebär att 295X2 är det bästa köpet idag.

För övrigt så är jag relativt opartisk, men jag avskyr den mängden falsk information som AMD utsätts för. 295X2 är ett fantastiskt kort av flera skäl, först och främst är det mäkta imponerande ingenjörskonst att få in två st GPUer på en PCB med den prestandan, förbrukningen och således värmeutvecklingen. Det möjliggör oslagbar prestanda i ett Mitx system, exempelvis. Kvalité rakt igenom och det är synd att AMD inte har gjort fler kort av denna kaliber för det hade pressat Nvidia och förbättrat vårt läge som konsumenter. Kortet blev i princip prisat i all amerikansk media och hos dom flesta recensenter av ovanstående anledningar.

Att det sedan tog Nvidia på sängen och totalförstörde lanseringen av Titan Z, som för övrigt är ett skämt med sin prislapp på 25 000 kr. Att det sedan finns fanboys som ville bli mjölkade och köpte det ändå är en annan femma.

Ångrar fortfarande att jag ej köpte två st 780 Ti dock.

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Medlem
Skrivet av Zcenicx:

Helt rätt, det gör jag inte, och anledningen är inte att man inte kan jämföra dubbelmackor med singelkort (även om man i vissa fall bör det, exempelvis fungerar inte Freesync med dubbla GPUer och 4k + CF/SLI har barnsjukdomar).
Men, ska du dra upp 295X2 ska du inte jämföra med ett singelkort, då får du jämföra med andra dubbelgpu-lösningar, och den som är mest uppenbar är förstås 970 SLI (och den som inte har nätagg för 970 SLI har inte ett nätagg för 295X2 - monstret drar över 500 watt!).

Två 970'or kostar en tusenlapp mer än ett 295X2 (2x 3495:- vs 5995:-) och två stockklockade 970'or presterar identiskt med ett 295x2 i 1440p.
http://www.sweclockers.com/image/diagram/9476?k=eae560e100572...
I 4k vinner ett 295X2, men återigen anser jag att 4k inte är i närheten av moget nog att bygga speldator för. 1440p har bara precis kommit dit.

Det bör dock påpekas att 295x2 i praktiken är omöjligt att överklocka, medan ett standard tredjeparts 970-kort är klockat ~10% från fabrik och går att vrida upp över 25% (läs 1300+ MHz) utan några problem. Rent praktiskt fick du alltså 25+% högre prestanda för 17% högre pris, så i reell prestanda per krona vinner 2x970 över 295x2 - i allt utom 4k, för där kommer de "bara" ifatt.

295X2 är ett bevis för vad man kan göra när man skiter fullständigt i vilka standarder som gäller (inklusive ATX-standarden) och tillverkar ett kort som drar 500 watt när standarderna som finns säger att kortet max får dra 300. Det sagt säger jag inte emot dig, det är ett imponerande kort på samma sätt som Ares och Mars är det. Den enda egentliga skillnaden mellan det här och ett sådant är att det inte står Asus ROG på det.

SLI och Crossfire fungerar väldigt bra idag, särskilt sedan CFX ersatte bryggan, jag håller dock med dig att i 4K är det inte där det borde vara, ännu åtminstone.

Jag har postat grafer med 970 SLI och 295X2, och har jag högre budget är två st 970 sannolikt och oftast en kraftfullare lösning, dock går det att överklocka ett 295X2 och det har faktiskt fått beröm för just den möjligheten i och med den inbyggda vattenkylningen. Dom flesta klarar av minst 5-10% på kärnorna och 20% på minnet.

Vidare tycker jag att 4K är fullt njutbart om man hoppar över AA, (vilket i sig är tramsigt i 4K) och då får man acceptabla framerates. I Metro Last Light får jag i genomsnitt mellan 50-60 FPS med Very High och AA av, samt frame pacing aktiverat. Stänger jag av FP sticker det upp mot 60+.

ATX standarden är snålt tilltagen och det är endast spännande när någon vågar kliva utanför gränser och pröva nya vägar, det skapar innovation och samtliga tjänar på det. Dock håller jag med om att det var ett gissel att byta nätagg, kolla upp Railsen och Amp på dem osv, men det var värt det för kortet kör fullständigt över allting än så länge.

Såvitt jag vet designade AMD kretsen och Asetek kyllösningen. Hade varit schysst med en 240mm radiator istället skall sägas, men då hade det inte passat i många system. Max temp jag har haft är ca 71c.

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Medlem
Skrivet av Zcenicx:

Skitsnack, en väldigt stor anledning att köpa SLI (och den folk SKA köpa det för) är för 144 Hz. Högre upplösning slår fel oavsett vilket kort du köper, för det kommer alltid ett nyare spel som pressar gränserna längre än vad korten egentligen klarar. Alltså är målet folk egentligen borde satsa på 1440p144 idag (högre än 2160p60 är omöjligt oavsett kort, de kan inte ens presentera det) och där är 970 ett underbart kort att se arbeta.

4k är trevligt att titta på, men 60 Hz är inte kul att spela i, inte ens med sync.

Skitsnack är det dock inte, en stor anledning till flera kort är flera skärmar med högre upplösning.

Detta håller jag dock stort med dig fullständigt i, sweetspot idag är 1440p med 144 Hz, bästa av två världar, snäppet högre pixels med kännbart bättre uppdfrq.

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Antielefant
Skrivet av Aeig:

SLI och Crossfire fungerar väldigt bra idag, särskilt sedan CFX ersatte bryggan, jag håller dock med dig att i 4K är det inte där det borde vara, ännu åtminstone.

Jag har kört SLI sedan 8800 GT (sedan 3-way 260, 2-way 285, 2x570 och nu 2x680). Jag har inget emot SLI men jag är också väl medveten om vilka problem som finns. Du har helt rätt, det fungerar i princip smärtfritt i FHD (1080p) och QHD (1440p), i princip alla nya spel stöder det, men skon skaver verkligen fortfarande på UHD (4k) och det är många mer eller mindre irriterande problem.

Precis som QHD hade barnsjukdomar så har UHD det och jag ser det personligen som väldigt sannolikt att 4k aldrig kommer att fungera riktigt bra med dagens grafikkort. De är helt enkelt inte hårdvarumässigt varken anpassade eller optimerade för den upplösningen eftersom de allra, allra flesta sitter med en FHD-skärm och de flesta entusiaster sitter med en QHD. Jag gissar att vi får se ett större fokus på det till Pascal, men knappast tidigare än så.

Vad gäller överklockningen... Jag är imponerad av grundprestandan i 295x2, men den är verkligen redan pressad till bristningsgränsen. 5-10% överklockning är inte mycket att hänga i julgranen när man jämför med kort som rutinmässigt klockas 35% (42% av TS). Som sagt, jag håller med om att 295X2 är ett ingenjörsmässigt mästerverk (vilket TitanZ också är sett till tekniken, även om priset i det fallet är direkt löjeväckande) men det krävs väldigt mycket av systemet för att driva, än mindre klocka, ett kort som i fabriksutförande drar 500W, vattenkylt eller inte.

4k och framerate... som du säkert förstår så dissar jag det direkt när du säger 50-60 FPS. Jag är van vid 144 och får jag välja mellan en UHD-skärm med 60 FPS eller en QHD-skärm med 120 FPS (vilket är samma mängd pixlar per sekund) så väljer jag QHD. Lägre upplösning, visst, men jag får flytet. Och det är verkligen en märkbar skillnad i flyt mellan 60 och 120, särskilt när man går från sin 144 och sätter sig vid en 60.

Därav också varför min planerade uppdatering till hösten är en Skylake i7 6700k, två 980 Ti och en ROG Swift. Gissningsvis landar det köpet på ~25k, men håller de i de tre år min nuvarande rigg hållt så är det trots allt bara 700:- i månaden. Efter det kanske 4k faktiskt är gångbart för spelande, vem vet.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem

Jag ska vara ganska nöjd med mitt 970 på 77.4% alltså?

Permalänk
Avstängd
Skrivet av MHolfve:

Jag ska vara ganska nöjd med mitt 970 på 77.4% alltså?

Du ska vara nöjd över ditt 970, inte dess ASIC-värde.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem

Detta med ASIC quality känns som nått som folket bakom GPU-Z bara klämt ut bakvägen. Vet inte va det skulle vara ett bra mått för. Verkar ju helt random.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem

Tycker detta med ASIC inte är tillförlitligt. Ett föredetta 280X med ett ASIC på 69.7% gjorde 1380mhz på 1.25v från Sapphire medans ett annat med ~88% från Powercolor inte ens kunde gå över 1180mhz.

Haft liknande historier med Nvidia kort. Luft, vatten, subzero. Och pendlat kraftigt i överklocknings potential trotts närliggande värden (ASIC värde).

Visa signatur

Star Citizen ❤

Permalänk

K|ngp|n korten ska tydligen ligga mellan 67-72, finns folk på forum som vill byta sina 71or mot 67or.... De korten är ju binned, OC världen är magisk!

Visa signatur

|Carbide Air 540|AX1200|ROG RIVE|3930K|32GB|GTX 1080 Classified|850Pro|ROG Swift|

Permalänk
Medlem
Skrivet av thomasson:

K|ngp|n korten ska tydligen ligga mellan 67-72, finns folk på forum som vill byta sina 71or mot 67or.... De korten är ju binned, OC världen är magisk!

Jo, för lägre ASIC ska ju vara bättre för subzero. Men mja, jag köper inte detta med ASIC till dess fulla grad.

Visa signatur

Star Citizen ❤

Permalänk
Skrivet av Tomika:

Jo, för lägre ASIC ska ju vara bättre för subzero. Men mja, jag köper inte detta med ASIC till dess fulla grad.

Tomika, inte jag heller. Men folk blir väldigt stressade över situationen med ASIC. Skillnaden på mitt 69 Titan och 81 Titan var så marginell så att det var löjligt.

Visa signatur

|Carbide Air 540|AX1200|ROG RIVE|3930K|32GB|GTX 1080 Classified|850Pro|ROG Swift|

Permalänk
Medlem
Skrivet av Mr.Borka:

Minnesproblemet drabbar 100% av grafikkorten, eftersom minnet är felkonstruerat.
Nä. Alla entusiaster bör hålla sig långt borta från GTX970 för att sända tydliga signaler till Nvidia. De som redan äger skiten borta göra ett ordentligt försök på att få skiten returnerad.

Att grafikkortet är felkonstruerat och ger fel som inte visar sig idag är en klen tröst när problemet gör steget in i framtidens spel hopplöst.

Om du köper grafikkort för framtidens spel du, så köper jag grafikkort för dagens... När framtiden kommer och nVidia släppt tanken på 970 är mitt 970 redan hopplöst långsamt.

Jag är så less på att det i varje tråd ska sägas saker som "Sälj kortet!" o.s.v. Hur hjälper det TS?

Till TS: Kortet ditt är finfint. Klockar bra mycket bättre än mitt. Och vad hade du hoppats på? Du kanske skulle kunnat få ut 1 - 3 % mer i prestanda. Vi snackar 1 fps mer, ibland...

Visa signatur

DATOR i bruk: ASUS ROG STRIX B550-F Gaming, Ryzen 7 5900X. 4x16 GB Ballistix MAX RGB @ 3800 MT/s 16-17-18-34-51 (1T)/~58 ns. MSI RTX 4090 Ventus x3. Samsung 980 Pro 1 TB. EK AIO Elite 360.
DATOR 2011 års modell: Underbara Sandy Bridge, i7 2600K@4,7 GHz på ett P67 Sabertooth-bräde. Radeon HD 7770

Permalänk
Medlem
Skrivet av fantomsmurfen:

Nej. Det är ett faktum att 290(X) drar ungefär 100W mer än 970 och det betyder i praktiken att 290(X) utvecklar 100W mer värme. Tänk dig en extra glödlampa på 100W inne i chassit.

Det är därför man har fläktar och vädrar ut varm luft från chassiet...

Permalänk
Skrivet av matte70:

Det är därför man har fläktar och vädrar ut varm luft från chassiet...

Om man nu inte trivs med en snudd på knäpptyst dator. Då är det rätt trevligt att ha 100W mindre att ventilera ut ur chassit.

Visa signatur

Dator:
*Censurerad av jantelagen*

Permalänk
Medlem
Skrivet av SeF.Typh00n:

Du ska vara nöjd över ditt 970, inte dess ASIC-värde.

Det är jag verkligen! bra prestanda till en okej peng och låg värmeutvekling, sitter perfekt i min m-ITX rigg (:

Permalänk
Medlem

Alla klagar över problemenen med GTX 970. Frågan min är då: Får du tag i ett kort med samma prestanda för det priset? Att klaga över överclockning utöver specifikationer eller ASIC värde blir ju bara dumt, du har fått den prestandan du betalat för enligt specifikationer.

Allt över specifikationerna får ses som en bonus, GTX970 är ett prisvärt kort med tanke på prestandan du får.

Visa signatur

[EVGA P55 FTW] [i5 750 @ 4.2GHZ] [HyperX @1680 16GB 9-9-9-24] [HD6970 Xfire 1010/1475] [AX1200] [Samsung 830 256GB] [Lian-Li A71FB] [XSPC RX480, Cooltek Maxistream 360, Laing D5, Dtek Fuzion V1, Maze4 + Maze5]
Projektlogg Prestanda HTPC

Permalänk
Medlem
Skrivet av stimpen:

Ja, köp inte 970. De har ju även fel på minnet, varför har du köpt ett sådant?

Förstår inte de som gnäller på minnesuppdelningen. Det viktiga är givetvis hur kortet presterar under spelande, och här är GTX 970 ett riktigt bra kort. När vi talar om nya spel som kräver mer än 3,5GB på ultranivå så kommer förmodligen kortet vara för långsamt i vilket fall som helst. Och det finns givetvis alltid möjlighet att hoppa ner ett steg i kvalitet om det skulle krävas.

Permalänk
Medlem
Skrivet av Zcenicx:

Behövdes det eller kunde spelet fylla det? Jag vill nämligen minnas att även om man kunde se spelet fylla upp minnet så gjorde det inte ett dugg för den faktiska frameraten (jämfört 780 vs Titan, vilket förutom 3/6 GB minne är samma kort). Spelmotorer är inte dumma, de kastar inte ut gamla texturer ur minnet om det finns ledigt minne kvar att tillgå, precis som Windows inte tömmer ut gammal information ur ditt RAM-minne innan minnesplatsen faktiskt behövs till något annat.

Jag hade 3.7GB användning in game om jag minns rätt, enligt MSI Afterburner. Då körde jag med uppemot 30-40 stycken moddar och majoriteten av dem var grafik-förbättringar.

Skrivet av Zcenicx:

GTX 680 fyllde 3 år den 22 mars, och 3 år är per definition "flera år". Jag kör två själv och jag stöter sällan på problem med att VRAM inte räcker till - eftersom jag kör det allra, allra mesta i 1080p144 (inklusive, haha, ett kraftigt moddat Skyrim! ) Vill jag få ut 144 FPS kan jag inte belasta korten så hårt att VRAM inte räcker till - det orkar inte två 680-GPU'er. Men... det gör inte så mycket. Jag får runt 100 FPS i DA:I med samma inställningar som Swec testar, 130-144 med lite custominställningar. Konstant 144+ i Bioshock om jag drar ner DDOF ett snäpp.

Jag har två tre år gamla grafikkort, jag spelar dagens nyaste titlar i nära nog högsta inställningarna, och den enda anledningen att jag dreglar lite över 980 Ti är för att jag är både certifierad prylbög och har mer än nog pengar på banken för att köpa två om jag vill. Jag står väldigt fast vid att 2 GB räckte i flera år. Det räcker även idag, sett till vad grafikkortet i övrigt orkar driva, men vill man så kan man pressa ett 2 GB-kort förbi vad det klarar idag. Enkelt, det är bara att dra på för hög AA eller en massa DOF.

Jag har endast testat på 60hz och med maximalt eye-candy, då är det oftast minnet som tar slut innan det flaskhalsar i beräkningskraft enligt min erfarenhet.
Så med andra ord spelar det roll beroende på vad du vill ha, hög fps (144hz) eller vackrare grafik (mycket AA), något du kanske borde påpeka istället för att säga att problemet inte är något att bry sig om.

Skrivet av Zcenicx:

Men visst, hade jag haft en ROG Swift hade jag nog redan bytt till 2x980. 1440p144 med G-Sync är inte alls en otrevlig upplevelse. 4k rör jag däremot inte med tång, inte bara för att 2xTitan X inte orkar driva det utan för att det känns ryckigt att spela i 60 Hz när man är van med 144.

Det hade varit trevligt med den hårdvaran. Däremot förstår jag inte vad du menar med att 2xTitan X inte kan driva 4K, det kör ju BF4 på average 65fps(http://www.sweclockers.com/recension/20216-nvidia-geforce-gtx...) på "MAX".. Sedan kan man klocka dem lite och sänka lite AA, det borde inte dippa under 60 då. Sedan kan jag dock förstå om man inte vill gå tillbaka till 60hz efter 144hz.

Skrivet av Zcenicx:

Jag säger inte emot dig, och jag tycker också att det är falsk marknadsföring. Kortet blir dock inte sämre för det.
1: Det finns inget framtidsperspektiv i grafikkortsvärlden, det är den del av din dator som blir föråldrad först.
2: Det finns inget bättre eller mer framtidssäkert kort att köpa för 3500:-
3: 970 fungerar inte ett dugg sämre i SLI bara för att de sista 512 MB minne inte går att använda. Då skulle 780 Ti SLI vara en dålig kombo och det är det absolut inte.

Det finns alltid framtidsperspektiv, vissa områden har bara kortare sådan än vissa andra.
Det är bevisat att 970 kan få enorma problem i spel jämfört med 980, detta inträffar endast när de sista 0.5GB'en används.
Om en person köper ett 970 för att i ett senare skede kanske köpa en 1440p skärm, kommer förmodligen personen använda mer än 3.5GB och kan få en horribel upplevelse (enligt många som provat). Något som eventuellt inte märks direkt vid inköp på en 1080p-skärm, om personen inte kör mycket moddar i till exempel Skyrim.

Du jämfört äpplen och golfbollar, det handlar inte om mängden vram, det handlar om prestandan som vram'en har.
780TI har inte lägre prestanda på de sista 0,5GB'en vram, något som däremot 970 har och därför får man problem.
Hade kortet haft 3.5GB vram istället för 4GB där de sista 0.5GB'en är kassa hade kortet varit mer framtidssäkert än det är nu, då detta inte hade skapat problem.

Många köper eventuellt ett kort i tanken av att köpa ett till när det behövs (kanske efter en ny 1440p-skärm), helt plötsligt får dem problem då deras "framtidssäkra-grafikkort"( enligt dig) inte kan hantera moderna upplösningar pga sitt vram-problem.

Sedan håller jag med om att det är ett fantastiskt bra och prisvärt kort så länge inte mer än 3.5GB vram används och jag har en polare som är helnöjd med sitt och lirar på 1440p utan problem.
Han sänker ju dock grafikinställningarna för att inte överskrida 3.5GB och få problem (något jag inte tycker att man borde behöva göra med ett 4GB's kort), men han orkar inte skicka tillbaka det.

Skrivet av Zcenicx:

Standard mot standard, men ett referens 970 klockar 30% medan ett stock 290/290X inte ens orkar med sin egen boost utan att throttla.
290/290X är enbart ett alternativ som tredjepartskort, och då måste du jämföra mot tredjeparts 970'or.

Det throttlar ju endast pga de värdelösa stockkylarna, jämför du tredjeparts 290/290X med tredjeparts 970 så är de fortfarande lika bra, och då kan du klocka AMD-korten också, 15-20% enligt Sweclockers.
Det är inga 30% som du säger att 970 kan överklocka med (trots att Sweclockers själva endast kunde överklocka med 16%), men sedan har inte AMD några minnes-problem heller.
(Överklockning av 290X: http://www.sweclockers.com/recension/18345-radeon-r9-290x-med...)
(Överklockning av 970: http://www.sweclockers.com/recension/19332-nvidia-geforce-gtx...)

Med risk för att låta barnslig, men jag tycker det luktar väldigt mycket Nvidia-fanboy av dig.
Du säger att problem som eventuellt kan förstöra poängen med att ha ett modernt grafikkort (fin grafik) inte är något att bry sig om, utan någon riktig information till varför du tycker så och då det i själva verket finns saker man borde fundera över innan man köper ett 970 av just denna anledning.
Du överdriver det negativa med AMD's motsvarigheter och det positiva med Nvidia:
"Dubbelt så mycket ström", egentligen = 300W vs 375W. (http://www.anandtech.com/show/8568/the-geforce-gtx-970-review...)
"Mycket varmare", egentligen = 69c vs 75c (beroende på modell enligt Swec).
"referens 970 klockar 30%", egentligen = 16% enligt Sweclockers.

Som jag skrev i mitt tidigare inlägg så vill jag inte starta en diskussion, jag ogillar bara när folk sprider osann "fakta".
Jag har själv AMD för stunden men jag är ingen AMD-fanboy, jag hade Nvidia tidigare och jag är osäker på vad nästa GPU blir.

Visa signatur

Gigabyte B550 Aorus Pro AX | AMD Ryzen 5800X | 32GB 3600Mhz CL16 | GIGABYTE Radeon RX 6900 XT Ultimate Xtreme WaterForce | Corsair Obsidan 900D | EK-WB CPU & GPU | 2x480-Radiator | ASUS PG348Q | Logitech G604 | Logitech G915 | BeyerDynamic MMX 300 + SB X-Fi Titanium Fatal1ty |

Permalänk
Medlem
Skrivet av Zcenicx:

Jag tog upp TDP på korten, inte testvärden då dessa varierar från dator till dator och beroende av effektivitet. Men visst, säg att det skiljer 115 W. Det betyder fortfarande att skillnaden i strömförbrukning mellan 970 och 290X är större än vad CPUn i testriggen drar.

Som jag skrev ovan, 3,5 GB-debatten är överdriven och särskilt så i att många inte förstås hur onormalt det är att folk kommer att stöta på det problemet innan de redan kört in i andra. Jag försöker att vara nyanserad, men jag tror att ett direkt problem här är att det är svårt att vara helt neutral när vi börjar se AMD tappa mer och mer mark. Det är som alltid en källa för ständig och hetsig debatt, men min åsikt är:
Radeonkort är bättre för bitcoinmining. De kan mäta sig med Nvidias motsvarande kort vad gäller ren prestanda. De har ett jämbördigt system för flerskärmsstöd i det att Eyefinity har andra fördelar och nackdelar än Surround.

Vad mer kan de hävda sig med? De ligger efter, de ligger ganska långt efter, och de kastar enorma pengar de inte har på projekt som bokstavligen går upp i rök (typexemplen är förstås TressFX och Mantle).

Jag upprepar vad jag skrivit i flera andra trådar; AMD försöker att kriga mot både Intel och Nvidia. I det första fallet är det David mot Goliat, Intel är tio gånger större än hela AMD och lägger mer i R&D per månad än vad AMD gör per år. I det andra fallet har AMD faktiskt en högre omsättning, men Nvidia lägger fortfarande 30% mer på R&D än vad hela AMD gör. De gör för den delen en större vinst än vad AMD gör förlust, vilket säger en del när AMDs förluster ligger i halvmiljarddollarklassen. Problemet är rent krasst att R&D kostar pengar och AMD har som det ser ut idag inte råd att hänga med.

Observera att jag inte tycker att det här är en bra situation. Grafikkortsmarknaden börjar likna processormarknaden, och precis som Intel kan parera AMD med sina "små" processorer börjar Nvidia kunna göra det med sina "små" grafikkretsar. Resultatet av den situationen är enkel att visa på, den ser vi i vilka prislappar Nvidia kan sätta på sina Titankort, och att de precis som Intel kan fokusera på strömsnålhet (vilket är viktigt för den mobila marknaden) istället för prestanda (vilket är vad vi räknar på entusiastmarknaden).

Behövdes det eller kunde spelet fylla det? Jag vill nämligen minnas att även om man kunde se spelet fylla upp minnet så gjorde det inte ett dugg för den faktiska frameraten (jämfört 780 vs Titan, vilket förutom 3/6 GB minne är samma kort). Spelmotorer är inte dumma, de kastar inte ut gamla texturer ur minnet om det finns ledigt minne kvar att tillgå, precis som Windows inte tömmer ut gammal information ur ditt RAM-minne innan minnesplatsen faktiskt behövs till något annat.

GTX 680 fyllde 3 år den 22 mars, och 3 år är per definition "flera år". Jag kör två själv och jag stöter sällan på problem med att VRAM inte räcker till - eftersom jag kör det allra, allra mesta i 1080p144 (inklusive, haha, ett kraftigt moddat Skyrim! ) Vill jag få ut 144 FPS kan jag inte belasta korten så hårt att VRAM inte räcker till - det orkar inte två 680-GPU'er. Men... det gör inte så mycket. Jag får runt 100 FPS i DA:I med samma inställningar som Swec testar, 130-144 med lite custominställningar. Konstant 144+ i Bioshock om jag drar ner DDOF ett snäpp.

Jag har två tre år gamla grafikkort, jag spelar dagens nyaste titlar i nära nog högsta inställningarna, och den enda anledningen att jag dreglar lite över 980 Ti är för att jag är både certifierad prylbög och har mer än nog pengar på banken för att köpa två om jag vill. Jag står väldigt fast vid att 2 GB räckte i flera år. Det räcker även idag, sett till vad grafikkortet i övrigt orkar driva, men vill man så kan man pressa ett 2 GB-kort förbi vad det klarar idag. Enkelt, det är bara att dra på för hög AA eller en massa DOF.

Men visst, hade jag haft en ROG Swift hade jag nog redan bytt till 2x980. 1440p144 med G-Sync är inte alls en otrevlig upplevelse. 4k rör jag däremot inte med tång, inte bara för att 2xTitan X inte orkar driva det utan för att det känns ryckigt att spela i 60 Hz när man är van med 144.

Jag säger inte emot dig, och jag tycker också att det är falsk marknadsföring. Kortet blir dock inte sämre för det.

1: Det finns inget framtidsperspektiv i grafikkortsvärlden, det är den del av din dator som blir föråldrad först.
2: Det finns inget bättre eller mer framtidssäkert kort att köpa för 3500:-
3: 970 fungerar inte ett dugg sämre i SLI bara för att de sista 512 MB minne inte går att använda. Då skulle 780 Ti SLI vara en dålig kombo och det är det absolut inte.

Standard mot standard, men ett referens 970 klockar 30% medan ett stock 290/290X inte ens orkar med sin egen boost utan att throttla.
290/290X är enbart ett alternativ som tredjepartskort, och då måste du jämföra mot tredjeparts 970'or.

Dold text

Som jag skrev tidigare är TDP inget att ens ta upp, för dom skriver inte det på samma sätt.
Men håller helt med AMD´s kort är törstigare, men är ju över 1 år gamla nu. 900 serien har ju kompromissat på andra sätt för att pressa strömförbrukningen, blev faktiskt förvånad att korten hade ens 4Gb ram (Nvidia är ju kända för lite ram och smal bus i alla fall på senare år).

900 serien är ju bara kort för 1080p och viss fokus på 1440P, därför dom kunde skala bort allt "onödigt", men offra hög upplösning stället.

AMD har hela tiden sagt att mantle inte skulle vara hållbart att hålla i själv, utan gav ju eld i baken på MS som gjorde sen gällande DX 12 skulle komma senare. GL fick allt mantle hade i utveckling (tiden får utvisa om det kommer bli bra).

Kul att du nämner g-sync, är ett riktigt otyg som bör läggas i en låda och kasta bort nyckeln. Där borde snarare en öppen standard få regera i stället, litar inte på Nvidia att dom kommer ta betalt om dom får värre monopol än idag.

Värsta är ju om det blir som Intel så kommer utvecklingen av tunga spel avstanna typ, cpu:er är inte lika kritiskt att prestandan inte ökar med 50/100% varje släpp. Men gpu:er är det värre om inte prestandan går upp varje gen drastiskt.

Tyvärr dominerar speciellt datormarknaden med fanboys, utan längre framtidsutsikt än vad näsan räcker. Oavsett vilket kort/märke man gillar ska det inte gå överstyr som det gjort idag.

Se Nvidia har 75% av marknaden och beter sig som rent ut sagt svin och vad framtiden visat än kommer det bara bli värre :/ Säger inte AMD är bättre, men mellan pest och kolera vet jag vad jag väljer för grafikkort/cpu nästa gång (måste ju köra varannan ju):)

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem

Hmm ja R9 290 som jag själv innehar ett exemplar av är inget för green peace aktivisten kanske, men det är helt klart ett jädrans bra grafikkort.

Tveksam till överklockningsjämförelserna mellan 290 och 970. Vad jag vet är biosen i 970 utformad så att den inte tillåts hämta den energin som behövs för att nå högre. Utan tvekan kan 970 klockan så det bara ryker om det, något som nVidia otvivelaktigt vill lägga band på så det inte blir för trevligt Ett bios med borttagen powerlimit behövs nog där sen gärna mer spänning det borde den klara.

290 då? Beroende på stock-core som på referenskorten är 947mhz och på det populära tri-x 1000mhz t.ex. så tar sig, med adekvat kylning givetvis, en majoritet till 1200mhz eller strax under. Då får man oftast lasta på en hel del spänning men sånt är livet. Det motsvarar 20-25% ökning. Så runt 20% ökning borde vara inom räckhåll för de flesta korten (förmodligen absolut inte för referens).

Då drar givetvis kortet en sjujädrans massa energi. Skulle uppskatta att ett 290 @1200mhz häller i sig ~350W i load.

Sen med Asus och diverse custom-bios pt1 o pt3 etc så kan man lägga på meeer spänning yessss. Har inte provat på det än men för dem som bokstavligen skruvat på ädelmetaller på kortet så kan man resa vidare mot 1300mhz men det kanske inte är helt relevant för den här luftiga diskussionen

Visa signatur

Snälla citera när ni svarar :D

Wololo

Permalänk
Medlem
Skrivet av Mr.Borka:

Minnesproblemet drabbar 100% av grafikkorten, eftersom minnet är felkonstruerat.
Nä. Alla entusiaster bör hålla sig långt borta från GTX970 för att sända tydliga signaler till Nvidia. De som redan äger skiten borta göra ett ordentligt försök på att få skiten returnerad.

Att grafikkortet är felkonstruerat och ger fel som inte visar sig idag är en klen tröst när problemet gör steget in i framtidens spel hopplöst.

suck som att 500mb kommer göra någon skillnad i framtiden?
dra ner en inställning i spelet så slipper man problemet, nog för att FPSen lär ju vara kring 20 när minnet är på 3,5GB gränsen...

däremot kan det vara surt för SLI användare, men det är en annan femma och som sagt dra ner en inställning och få någon mer fps istället...

Permalänk
Skrivet av PlexGear:

970 är fortfarande ett mycket kompetent grafikkort även med VRAM problemet. Dessutom drabbar problemet inte särskilt många.
Till TS, stöter du på problem så returnerar du det annars så tycker jag att du behåller kortet.

Problemet drabbar alla då de hävdar på lådan att kortet har 4.0 GB gddr5 men de har bara 3,5 GB och problemet med att kortet saktas ner är när de som testat använt sig utav ett program som aktiverar den sista 0,5 GB av gddr5:an och den sista delen är den sega men man möter inte detta problemet i "real Case" senarion så 970 korten är fortfarande jättekompetenta kort

Visa signatur

CPU I7 5820k @ 4.63 GHz GPU Gigabyte G1 gaming 980 ti RAM 32 GB @3000MHz MOBO msi x99a sli plus SSD 2 TB SSD HDD 3 TB HDD PSU 850w Evga G2 CASE InWin S-frame black n' gold

Gratis frakt på Inet: http://www.inet.se/produkt/9990887/fraktfritt-sweclockers