bästa gpu för 3,5 tusen kronor

Permalänk
Medlem

bästa gpu för 3,5 tusen kronor

Kan nån hjälpa mig, ja är fast på gpu, vad är det absolut bästa gpu för 3500 kr?
vissa säger 970, evga, vissa säger asus, eller msi, eller gigabyte, eller radeon
men aa, bästa kortet för 3500, och bästa driver support, (gissar på nvidia korten)

och vilken är den bästa i5 processorn för enbart spel, 6600k skylake?

Permalänk
Medlem

https://www.komplett.se/product/847400/datorutrustning/grafik...

r9 390 är nog billigare och kan tjäna dig mycket i högre upplösningar, för övrigt när det gäller olika tillverkare så är det nästan sak samma.

Permalänk
Datavetare
Skrivet av Memmon:

och vilken är den bästa i5 processorn för enbart spel, 6600k skylake?

Det fetmarkerade är viktigt, för spel är ordningen 5675C > 6600K > 4690K medan den i nästa alla fall är 6600K > 4690K/5675C (dessa två är extremt nära här) i "vanliga" applikationer. Överklockning kan ändra detta, folk verkar oftare ha problem att överklocka 5675C/5775C än K-modellerna även om det finns de som lyckats pressa upp C-modeller rejält också. Se SweClockers CPU jämförelser av dessa modeller här.

Angående GPUn. 390 och 970 är i praktiken så nära varandra i prestanda att det är betydligt större variation beroende på speltitel och även beroende på inställningar än vad det är i genomsnittlig prestanda mellan dessa.

Om man kisar och försöker se någon trend så brukar 970 "vinna" i 1920x1080 eller lägre medan 390 "vinner" i 2560x1440 eller högre. Men det handlar fortfarande om genomsnittliga prestandaskillnader <10% i både 1080p och 1440p, d.v.s. du kommer inte kunna säga vilken som är den snabbare i ett blindtest.

Finns däremot vissa titlar med relativt stora skillnader, ett exempel är Far Cry 4 som föredrar 390 (föredrar alla GCN) medan t.ex. Project CARS rejält tiltar mot 970 (eller vilken Maxwell/Kepler-baserad GPU som helst).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Yoshman:

Hur är det med driver support for radeon 390 eller 970 vem får bäst driver support/updates

Permalänk
Medlem
Skrivet av Memmon:

@Yoshman:

Hur är det med driver support for radeon 390 eller 970 vem får bäst driver support/updates

970, men AMD har lovat att förbättra detta (som dom alltid gör).

Permalänk
Medlem

@Memmon:

Nvidia stöder fortfarande 400/500-serien men för ca 1 månad slutade AMD stöda 5000/6000-serien.

Permalänk
Medlem

Om vi håller oss till 970 korterna, har sweclockers genomfört tester för 970 korten?
För jag hittar inte, kan någon hjälpa mig?
Ja vet dom har valt ut evga 970 för vinterdatorn, och ni sa att det är nästan ingen skillnad på dom.

Här är alla 970 korten

http://www.inet.se/filter?Sort=price-a&CategoryId=167&propert...

Permalänk
Medlem
Skrivet av Memmon:

Om vi håller oss till 970 korterna, har sweclockers genomfört tester för 970 korten?
För jag hittar inte, kan någon hjälpa mig?
Ja vet dom har valt ut evga 970 för vinterdatorn, och ni sa att det är nästan ingen skillnad på dom.

Här är alla 970 korten

http://www.inet.se/filter?Sort=price-a&CategoryId=167&propert...

http://www.sweclockers.com/test/19516-msi-geforce-gtx-970-gam...
http://www.sweclockers.com/test/20391-evga-geforce-gtx-970-ss...
Var dessa två jag hittade men jag google kommer inte riktigt överens så fick nog fler test.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

http://www.sweclockers.com/test/19516-msi-geforce-gtx-970-gam...
http://www.sweclockers.com/test/20391-evga-geforce-gtx-970-ss...
Var dessa två jag hittade men jag google kommer inte riktigt överens så fick nog fler test.

så ska jag ta det som att evga 970 är så mycket bättre än alla andra 970 korten?

Permalänk
Medlem
Skrivet av Memmon:

@Yoshman:

Hur är det med driver support for radeon 390 eller 970 vem får bäst driver support/updates

AMD är inte gamla AMD som de flesta känner, de uppdaterar drivers konstant och brukar oftast släppa AAA titlar optimeringar efter release på någon dag (Nividia mutar spelutvecklarna så där får man optimeringar för AAA titlar samma dag).
390 är mer vänlig med DX12, billigare och har 4GB GDDR5 (970 har de fifflat lite med och där har du 3,5 minne och sedan 0,5 segare minne). Mer minne kan komma att behövas vid 1440P.

Sen när det gäller CPU så tycker jag att du ska köra på 6600K eller 4690K beroende på din budget.

Permalänk
Avstängd
Skrivet av Memmon:

@Yoshman:

Hur är det med driver support for radeon 390 eller 970 vem får bäst driver support/updates

singelkort är normalt sett aldrig ett bekymmer med drivrutiner.
kör just nu grim dawn ett dx9 spel i 2560x1440 med mitt 390 så det blåser på.

vet man om vilka spel du brukar spela mest så är ett tips att söka på spel/kort för att utröna om det eventuellt kan vara ett bekymmer.

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Medlem
Skrivet av NewCamps:

AMD är inte gamla AMD som de flesta känner, de uppdaterar drivers konstant och brukar oftast släppa AAA titlar optimeringar efter release på någon dag (Nividia mutar spelutvecklarna så där får man optimeringar för AAA titlar samma dag).
390 är mer vänlig med DX12, billigare och har 4GB GDDR5 (970 har de fifflat lite med och där har du 3,5 minne och sedan 0,5 segare minne). Mer minne kan komma att behövas vid 1440P.

Sen när det gäller CPU så tycker jag att du ska köra på 6600K eller 4690K beroende på din budget.

Alla 390 har väl 8 GB minne ??

Permalänk
Medlem

@Memmon:

390 nitro (nya rev med backplate)
http://www.prisjakt.nu/produkt.php?p=3400452
Utan tvekan just nu

http://www.sweclockers.com/test/21190-sapphire-radeon-r9-390-...
"// För priset strax över 3 000 kronor gör sig kortet bra, med prestanda något under Geforce GTX 980 //"

Gissar att du lirar på 1080p

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Medlem

@Masen666: Helt rätt tänkte på 970 när jag skrev ut det, rättar mig 390 har 8gb minne.

Permalänk
Medlem

@Memmon: Ja bästa investeringen är nog skylake 6600k för överklocking is da shit.

Permalänk
Medlem

@olle2002:

Är 1150 socket död, kommer intel göra 1150 socket CPUs?

för egentligen så är i5 5675c som är bäst, men den har 1150 socket

Permalänk
Medlem
Skrivet av NewCamps:

AMD är inte gamla AMD som de flesta känner, de uppdaterar drivers konstant och brukar oftast släppa AAA titlar optimeringar efter release på någon dag (Nividia mutar spelutvecklarna så där får man optimeringar för AAA titlar samma dag).
390 är mer vänlig med DX12, billigare och har 4GB GDDR5 (970 har de fifflat lite med och där har du 3,5 minne och sedan 0,5 segare minne). Mer minne kan komma att behövas vid 1440P.

Sen när det gäller CPU så tycker jag att du ska köra på 6600K eller 4690K beroende på din budget.

Är du säker på att dom uppgraderar drivrutiner konstant?

Permalänk
Datavetare
Skrivet av NewCamps:

AMD är inte gamla AMD som de flesta känner, de uppdaterar drivers konstant och brukar oftast släppa AAA titlar optimeringar efter release på någon dag (Nividia mutar spelutvecklarna så där får man optimeringar för AAA titlar samma dag).
390 är mer vänlig med DX12, billigare och har 4GB GDDR5 (970 har de fifflat lite med och där har du 3,5 minne och sedan 0,5 segare minne). Mer minne kan komma att behövas vid 1440P.

Huruvida 390 är "mer vänligt med DX12" är det överhuvudtaget taget ingen som vet idag. Personligen tror jag att AMDs GCN generellt sett kommer tjäna mer på övergången till DX12 än Maxwell just därför att drivrutinerna är enklare i DX12 och AMD har inte i närheten lika mycket resurser tilldelade för utveckling av drivers som Nvidia.

Är oftare att det tar veckor än dagar innan AMD t.ex. får ut drivare optimerad för nya AAA-titlar. Är inte så att Nvidia mutar utvecklarna utan sättet DX11 är beskaffat kräver helt enkelt att man lägger rätt stora resurser på att specialoptimera för enskilda titlar om man vill få ut maximalt av kortet. I DX12 flyttar man det som är orsaken till detta krav på specialoptimeringar från drivararna till spelmotorn, är därför många utgår från att AMD kommer tjäna mer på DX12.

Det finns faktiskt saker som skulle kunna leda till att Maxwell vinner mer på DX12 än GCN. Två sådana möjligheter är att DX12 har lägre kostnad per "ritanrop", det skulle man kunna använda till att göra spel med långt mer avancerad geometri. Geometrikapacitet i 970 är ganska mycket högre än 390 (nästan dubbelt så hög i teorin).

Maxwell stödjer också DX12 feature level 12.1, mest relevant är nog en finess som kallas Raster Order View då GameWorks redan har funktioner som utnyttjar detta om man använder DX12/DX11.3 (bl.a. "FlameWorks" använder detta). Rent grafiskt man GCN och Kepler rendera samma scen även fast de saknar ROV, men det tar mer VRAM och mer beräkningskraft.

Ska man försöka vara lite objektiv så är Nvidias drivers idag bättre (i bemärkelsen mer effektiva, tror inte man kan säga vem av Nvidia/AMD som har stabilast drivers). Men har man en modern Intel CPU så är AMDs drivare i praktiken "tillräckligt" effektiva, flaskhalsen blir GPUn både för Nvidia och AMD. Har man däremot en äldre eller enklare CPU så tenderar det vara fördel Nvidia på driver-sidan.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

#15510503
Slänger in denna här. Har inte kunnat uppdatera den sedan SC låste redigering men den bör ha lite relevant information.

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem

Som många andra här säger, AMD 390 eller Nvidia 970 ligger väldigt lika prestandamässigt där det ena kortet är bättre på vissa saker och det andra på andra saker.
MEN! Värt att tänka på är att ett 390 kräver ett nätagreggat på mer än 500Watt, så har du endast 500watt nätagreggat så rekommenderar jag starkt att du även byter ut detta för att datorn ska fungera korrekt

För ett 970 räcker det med 500watt nätagg så länge det är av ett bra märke och gör sitt jobb

MVH

Visa signatur

Ryzen 5 3600X @ 4.1GHZ | 16GB HyperX PREDATOR DDR4 3200 | ASUS GTX 1080 8GB ROG STRIX DC3 | Fractal Design Newton R3 1000W, Fractal Design R5 | ASUS ROG Strix B450-F GAMING | Samsung EVO 250GB SSD, Crucial 240GB SSD + 2TB HDD

Permalänk
Medlem

Beroende på att nvidia varit oroligt tysta om dx12 så skulle jag idag GP efter ett 390/x eller ett beggat 290/780, tills pascal/artic island eftersom det är första gången på 4 - 5 år nu vi får en minskning i GPU nod? Och jag har alltid kört 50/50 sen jag började med datorer och kan inte påstå att jag märker någon skillnad på driver kvalit senaste 5 åren, förutom att jag föredrar Amd när jag kör med 2 skärmar då jag tycker de funkar bättre. Men den här gången ville ja ha det då starkaste singel GPU kortet för GTA V och hitta ett 980 för 4.2 k för 114 månader sen.

Tror jag hade om du har krediten att köpa ett Begagnat 290/x 780/Ti alt om du hittar ett billigt 970 och sedan säljer detta vidare när pascal och Arctic ilands kommer.

Permalänk
Datavetare
Skrivet av Sirme:

Beroende på att nvidia varit oroligt tysta om dx12 så skulle jag idag GP efter ett 390/x eller ett beggat 290/780, tills pascal/artic island eftersom det är första gången på 4 - 5 år nu vi får en minskning i GPU nod?

Livet kring DX12 var väl kring det enda som finns där just nu: Ashes of the Singularity.

Att det blev tyst beror nog mest på att utvecklaren till slut verkar fatta att "async shaders" inte har något med DX12 att göra, DX12 gör det möjligt att använda detta men det är inget krav. Man kan likna effekten man får med "async shaders" vid Hyper Threading för Intel CPUer, det finns modeller där HT skulle vara helt meningslöst och prestanda skulle som bäst i alla fall inte bli sämre om man körde med HT.

En sådan CPU-modell är Atom Silvermont. Modellen innan, Bonnell, fick enorm positiv effekt av HT, runt 50% högre prestanda. Bonnell och Silvermont har samma teoretiska IPC, maximalt två instruktioner per cykel, skillnaden är att Silvermont är designad så att den kan kommer väldigt nära maximal IPC redan med en CPU-tråd per kärna.

Samma sak gäller Maxwell kontra GCN. Maxwell är designad för att kunna hantera det relativt seriella DX11, man når helt enkelt hög effektivitet trots begränsningar. I DX12 betyder detta att man med Maxwell på sin höjd kan se samma prestanda när man använder "async shaders" som när man inte använder det, precis som med HT så kan det i värsta fall bli lite långsammare. En av de stora nackdelarna med DX12 är just att spelmotorer kommer behövas explicit anpassas till olika GPU-familjer, "back-end" för GCN kommer definitivt behöva "async shaders" medan "back-ends" för Maxwell/Kepler och Intels GPUer inte behöver detta och man bör därför låta bli att använda "async shaders".

Så det har blivit tyst därför att när denna pollett trillade ner så blev resultatet att 970 faktiskt presterar bättre än 390 i just AotS (390 använder fortfarande "async shaders").

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

. En av de stora nackdelarna med DX12 är just att spelmotorer kommer behövas explicit anpassas till olika GPU-familjer, "back-end" för GCN kommer definitivt behöva "async shaders" medan "back-ends" för Maxwell/Kepler och Intels GPUer inte behöver detta och man bör därför låta bli att använda "async shaders".

Så det har blivit tyst därför att när denna pollett trillade ner så blev resultatet att 970 faktiskt presterar bättre än 390 i just AotS (390 använder fortfarande "async shaders").
http://techreport.com/r.x/radeon-r9-380x/aots-avgfps.gif
http://techreport.com/r.x/radeon-r9-380x/aots-99bar.gif

Vet du hur lika Kepler och Maxwell är? Om spelet inte använder feature level 12_0/12_1, har Maxwell-arkitekturen ändå stora fördelar gentemot Kepler? Det verkar som att många förväntar sig att Kepler och Fermi drar kortaste strået vad gäller nyttan av DX12.

Jag befarar att Kepler hamnar på efterkälken direkt eftersom Nvidia kommer att prioritera drivrutinsoptimeringar för Maxwell och sedan för Pascal. Om Maxwell däremot är lik Kepler kan man väl förvänta sig att Nvidia låter Kepler dra nytta av de optimeringar som Maxwell och Kepler har gemensamt.

Alla AMDs kort med stöd för DX12 använder ju däremot olika revisioner av AMDs GCN-arkitektur, så där kan man väl definivt förvänta sig att alla GCN-kort får gemensamma drivrutinsoptimeringar.

Permalänk
Medlem

@Memmon: Nej död skulle jag inte säga skillnaden mellan 1150 och 1151 är minimal men man är mer framtidssäker om man köper ett 1151.

Permalänk
Medlem

Asså jag borde bara köpa evga 980ti o i5 6600k då ligger jag runt 9500 kr och snåla med allt annat, behöver jag klocka i5 6600k för att inte få bottleneck?

Permalänk
Datavetare
Skrivet av dunis90:

Vet du hur lika Kepler och Maxwell är? Om spelet inte använder feature level 12_0/12_1, har Maxwell-arkitekturen ändå stora fördelar gentemot Kepler? Det verkar som att många förväntar sig att Kepler och Fermi drar kortaste strået vad gäller nyttan av DX12.

Jag befarar att Kepler hamnar på efterkälken direkt eftersom Nvidia kommer att prioritera drivrutinsoptimeringar för Maxwell och sedan för Pascal. Om Maxwell däremot är lik Kepler kan man väl förvänta sig att Nvidia låter Kepler dra nytta av de optimeringar som Maxwell och Kepler har gemensamt.

Alla AMDs kort med stöd för DX12 använder ju däremot olika revisioner av AMDs GCN-arkitektur, så där kan man väl definivt förvänta sig att alla GCN-kort får gemensamma drivrutinsoptimeringar.

Först en disclaimer: Är ingen grafikprogrammerare idag mer än att jag lekt lite med OpenCL en del. Har jobbat en hel del med tidigare versioner av OpenGL och DirectX samt skrivit min egen 3D-grafikpipeline på Amiga tiden Så allt jag skriver här är mina gissningar baserat på vad jag läst om DX12 och läst från andra utvecklare.

Maxwell är naturligtvis baserad på Kepler och från hög höjd är de väldigt snarlika. Vad jag läst är det ändå en hel del skillnader mellan hur man optimera för dessa två modeller, Kepler är en väldigt "bräcklig" design. Vad man menar med att HW är "bräcklig" är att designen kan prestera väldigt bra men det krävs specifik optimering för detta. Ett annat exempel på "bräckligt" HW är CPU-delen i PS3/360.

Maxwell tenderar att presterar bra utan att man lägger speciellt mycket tanke bakom sakerna mer än sunt förnuft. Fermi ska tydligen också vara enklare att jobba med jämfört med Kepler, framförallt om det handlar om GPGPU. På pappret borde faktiskt Fermi tjäna mer på övergången från DX11->DX12 än Kepler/Maxwell. Fermi delar vissa egenskaper med GCN som Nvidia valde att skala bort i Kepler/Maxwell då det var meningslöst i DX11.

Tror ändå Fermi/Kepler är ett icke-problem för DX12. DX12 har nu funnits på marknaden i ca 6 månader och det är fortfarande noll DX12 titlar ute och är extremt få kommande titlar presenterade som överhuvudtaget har stöd för DX12 och än mindre är designade kring detta. Rent historiskt tar det runt 3 år för en DX-version att bli den dominerade tekniken för PC-spel, Fermi/Kepler kommer vara old-news när väl DX12 blir vanligt.

Notera också att en förändring från DX11 är att Nvidia inte kan göra speciellt mycket optimeringar via drivrutiner i DX12, det är upp till spelmotorerna att optimera för varje specifik GPU-familj. Detta är en av nackdelarna med "low-level APIs"... Tvivlar stark att speltillverkarna kommer lägga speciellt mycket krut på Kepler, däremot kan man vara lugn om man äger 970 då det just nu och sedan ca ett år tillbaka varit den enskilt bästa säljande GPU-modellen. Ingen har råd att skita i att optimera för den modellen.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

3,5 tusen kronor? Du kunde inte skrivit 3500 kr, eller om du ville göra det svårt för dig, tretusenfemhundra kronor?

Permalänk
Medlem
Skrivet av Yoshman:

Notera också att en förändring från DX11 är att Nvidia inte kan göra speciellt mycket optimeringar via drivrutiner i DX12, det är upp till spelmotorerna att optimera för varje specifik GPU-familj. Detta är en av nackdelarna med "low-level APIs"... Tvivlar stark att speltillverkarna kommer lägga speciellt mycket krut på Kepler, däremot kan man vara lugn om man äger 970 då det just nu och sedan ca ett år tillbaka varit den enskilt bästa säljande GPU-modellen. Ingen har råd att skita i att optimera för den modellen.

Ursäkta om jag är tjatig nu, men tror du att det krävs mycket jobb för att porta välpresterande "DX12 Maxwell-kod" till "Kepler-kod"?

Permalänk
Datavetare
Skrivet av dunis90:

Ursäkta om jag är tjatig nu, men tror du att det krävs mycket jobb för att porta välpresterande "DX12 Maxwell-kod" till "Kepler-kod"?

Kort svar: ja.

Längre svar: då Maxwell är en mycket mer förlåtande design så är det billigare att bara ta hänsyn till den arkitekturen. Men rent teoretisk skulle man som spelutvecklare kunna optimera sin kod för Kepler, sådan kod kommer prestera bra även på Maxwell. Men det omvända gäller inte nödvändigtvis, d.v.s kod som presterar bra på Maxwell kan presterar ganska illa på Kepler.

Rätt säker på att just detta är orsaken till att Kepler-modellerna tappar relativt sett GCN. GCN 1.0, 1.1 och 1.2 är långt mer lik varandra än vad Fermi<->Kepler är samt vad Kepler<->Maxwell är. Gissar att de flesta speltillverkare lägger majoriteten av resurserna på att optimera för den för tillfället bäst säljande generationen från respektive tillverkare.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Livet kring DX12 var väl kring det enda som finns där just nu: Ashes of the Singularity.

Att det blev tyst beror nog mest på att utvecklaren till slut verkar fatta att "async shaders" inte har något med DX12 att göra, DX12 gör det möjligt att använda detta men det är inget krav. Man kan likna effekten man får med "async shaders" vid Hyper Threading för Intel CPUer, det finns modeller där HT skulle vara helt meningslöst och prestanda skulle som bäst i alla fall inte bli sämre om man körde med HT.

En sådan CPU-modell är Atom Silvermont. Modellen innan, Bonnell, fick enorm positiv effekt av HT, runt 50% högre prestanda. Bonnell och Silvermont har samma teoretiska IPC, maximalt två instruktioner per cykel, skillnaden är att Silvermont är designad så att den kan kommer väldigt nära maximal IPC redan med en CPU-tråd per kärna.

Samma sak gäller Maxwell kontra GCN. Maxwell är designad för att kunna hantera det relativt seriella DX11, man når helt enkelt hög effektivitet trots begränsningar. I DX12 betyder detta att man med Maxwell på sin höjd kan se samma prestanda när man använder "async shaders" som när man inte använder det, precis som med HT så kan det i värsta fall bli lite långsammare. En av de stora nackdelarna med DX12 är just att spelmotorer kommer behövas explicit anpassas till olika GPU-familjer, "back-end" för GCN kommer definitivt behöva "async shaders" medan "back-ends" för Maxwell/Kepler och Intels GPUer inte behöver detta och man bör därför låta bli att använda "async shaders".

Så det har blivit tyst därför att när denna pollett trillade ner så blev resultatet att 970 faktiskt presterar bättre än 390 i just AotS (390 använder fortfarande "async shaders").
http://techreport.com/r.x/radeon-r9-380x/aots-avgfps.gif
http://techreport.com/r.x/radeon-r9-380x/aots-99bar.gif

Notera att spelet är i alpha och visar egentligen inget.
Det finns inga färdiga titlar som GPU tillverkaren har optimerade drivrutiner för så allt är bara spekulationer.

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället