Nvidia Geforce GTX 1070

Permalänk
Medlem
Skrivet av ArcticFire:

Billigaste Fury X på Prisjakt kostar 5490 kr. Om 1070 kostar 4700 så är det ganska mycket billigare.

Sant, det jag såg var ett Fury. Det förklarar vad som var fel.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

Jag är ledsen att AMD inte har kommit med något än och jag tror att ryktet att de inte kommer att visa något stämmer. Varför skulle det cirkulera annars? Det var tillräckligt jobbigt att vänta tills nu och nu så ska man behöva vänta ännu längre? Fast, släpper de lite specs och diagram så blir jag i alla fall glad. Gärna lite friserad testdata också från spel och 3dmark. Bättre än inget =).

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

Mycket trevligt kort. Hoppas på priser runt 4000kr till hösten! Sitter på ett Asus Strix 970 idag, men har ej bestämt mig än om det blir 1080 eller 1070. Priset är ju betydligt vettigare här, och frågan är om det är värt ett par tusen till för ett 1080. Dock sitter jag på en Phillips 40" 4K skärm, så kanske hade behövt lite extra kräm.

Visa signatur

| i9 10900K AllCore @5GHz | Gigabyte 3080 Vision OC @1845MHz (0.9v) | HyperX 32GB DDR4 @3600 MHz | LG 32'' @165Hz G-Sync | Samsung 970 Evo Plus M2 1TB | Asus ROG Strix Z490-F | Corsair RM750x | Noctua NH-D15 Cromax | FrDesign R7 | Soundblaster AE-5 | LG CX 65" | Nintendo Switch | PS5 Disc Ed. | RetroPie | One+ CE | Amiga 500 |

Permalänk
Medlem
Skrivet av kelthar:

Jag är ledsen att AMD inte har kommit med något än och jag tror att ryktet att de inte kommer att visa något stämmer. Varför skulle det cirkulera annars? Det var tillräckligt jobbigt att vänta tills nu och nu så ska man behöva vänta ännu längre? Fast, släpper de lite specs och diagram så blir jag i alla fall glad. Gärna lite friserad testdata också från spel och 3dmark. Bättre än inget =).

Inte så konstigt att AMD avvaktat. De måste sälja, och de vill naturligtvis se var nVidias produkter hamnar i pris och prestanda. Nu har de ett par veckor på sig att bestämma sig för klockor/effekt och sätta det i firmware, och prissättning.
Logiskt sett kommer de att se till att de är konkurrenskraftiga vid lansering. Sedan får man se hur eller ens om nVidia svarar. Om jag vore nVidia, skulle jag nog offra lite marknadsandelar och njuta frukterna av fetare marginaler och ett allmänt högre prisläge.

Permalänk

Lite benchmarks jämförelser mellan 1070 och 1080 för er som inte sökt runt

1080p och 1440p, samtliga "topp" kort.
https://youtu.be/-FWtJXmtITs

1080p,1440p och 4K, resultaten kommer efter 3:40
https://youtu.be/ybQ-34Grr5k

Visa signatur

MacBook Pro 13" 2018

Permalänk
Medlem

Imponerande kort, presterar ungefär som ett överklockat eftermarknads GTX 980 Ti, men är alldeles för dyrt. Lär ligga runt 5000:- ett bra tag innan det sjunker. (Jämför med GTX 970 som ganska snabbt låg runt 3300:- efter lansering).

Är dock ändå nöjd med mitt 980 Ti - nästan ett års extra användning för lite mer än 2000:- får jag nog tycka var värt det.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av ArcticFire:

Komplett hade ett EVGA 1080 för 6599 kr, så åtminstone ett kort följde riktpriset.

Att de presterar dåligt i dx12-spel gjorda för GCN är väl inte så konstigt? Med dx12 har spelutvecklarna tyvärr möjlighet att optimera för vissa grafikkort, speciellt Hitman verkar ha utnyttjat det.

3DMark är väll en mer generell test av api:et och här får kortet stryk av 280x , du ser alltså inga problem med det? Om kortet presterar dåligt i ett sådant test kan man nog se det som att risken för dåligt prestanda i dx12 baserade spel är stor i iaf många kommande tittare. Att nvidia är starka på dx11 är ingen nyhet, och prestandan i detta api heller ingen överraskning. Vad som är överraskande är hur sakta och dålig dom anpassar sig mot framtida tekniker, att deras kort som ju har en majoritet av marknaden presterar mycket bättre i dx11 skulle till och med kunna leda till att utvecklare väljer det föråldrad api:et över det nya förbättrade. Detta leder i sin tur till långsammare utveckling. Men vars är problemet med detta?...

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av RaBlack:

Glöm inte att butikerna också har möjlighet att mjölka pengar från start.
Mycket pålägg kommer även från butikerna INTE bara moms, dollarkurs m.m.
(Folk som är anställda/jobbar ska ju ha lön... arbetsgivaravgifterna är dessutom skyhöga här).

MVH

Nja marginalerna på komponenter är mkt låga, snittar mellan 3-5% i marginal så det finns knappt några pengar tjäna, det är inte som inom konfektions handeln ( kläder ect) där man ligger mellan 44-46% i marginal på produkterna.

Elektronik branschen är mkt mer konkurrens utsatt, jämfört med konfektion där man INTE konkurrera med priser på samma sätt som inom elektronikbranschen.

För en tex en Haglöfs jacka kostar exakt samma pris överallt.

Visa signatur

Dator 1: CPU i7 5820K@4.6Ghz|GIGABYTE X99 Gaming 5|Crucial ballistic 2x4GB 2400MHz, 2x8GB Crucial ballistic 2400MHz|Corsair AX750|ASUS Strix GTX 1070 |Intel 520 120GB|Intel 330 180GB |Intel 335 180GB |Seagate 1000GB | Phanteks Enthoo Primo |Kingston V300 240GB | Creative SB X-Fi

Permalänk
Medlem
Skrivet av esoneson:

Vad som är överraskande är hur sakta och dålig dom anpassar sig mot framtida tekniker, att deras kort som ju har en majoritet av marknaden presterar mycket bättre i dx11 skulle till och med kunna leda till att utvecklare väljer det föråldrad api:et över det nya förbättrade. Detta leder i sin tur till långsammare utveckling. Men vars är problemet med detta?...

Nu har jag inte läst hela eran diskussion men jag ville bara flika in och säga att detta stycket inte riktigt stämmer då Nvidia verkar ha satsat ganska mycket pengar på Vulkan api:t istället för att satsat på dx12, vilket jag varmt välkomnar med öppna armar, och som även kan ses om man kollar DOOM with Vulkan API on GeForce GTX 1080 videon.

Visa signatur

Citera för svar!
Stationär: AMD Ryzen 5600x | 32GB G.Skill 3600Mhz | AMD Radeon 5700xt
Laptop:MacBook Pro 13" 2016 TB 16gb 512gb

Permalänk
Medlem

@Rolfenstein: Ser priset ut som en kurva som går rakt uppåt? Folk säger att grafikkort var billigare förr, men om du tittar på grafen ser den mer ut som sin(t)+offset än sqrt(t) eller liknande.

Permalänk
Medlem
Skrivet av esoneson:

3DMark är väll en mer generell test av api:et och här får kortet stryk av 280x , du ser alltså inga problem med det? Om kortet presterar dåligt i ett sådant test kan man nog se det som att risken för dåligt prestanda i dx12 baserade spel är stor i iaf många kommande tittare. Att nvidia är starka på dx11 är ingen nyhet, och prestandan i detta api heller ingen överraskning. Vad som är överraskande är hur sakta och dålig dom anpassar sig mot framtida tekniker, att deras kort som ju har en majoritet av marknaden presterar mycket bättre i dx11 skulle till och med kunna leda till att utvecklare väljer det föråldrad api:et över det nya förbättrade. Detta leder i sin tur till långsammare utveckling. Men vars är problemet med detta?...

Skickades från m.sweclockers.com

Fast det är ju nästan garanterat något som är fel vid det testet i 3D-mark.
Det är totalt orimligt att 1080 skulle vara så överlägset bäst i testet samtidigt som 1070 är sämst.

Permalänk
Medlem
Skrivet av ramlösa:

Ser inte bra ut för AMD, 1070 är vad AMD borde ha släppt.
Prata om att ge bort hela marknaden till Nvidia, blir nog inte så många fler generationer från AMD om det här fortsätter.

Nu får du nog lugna ner dig, Computex har knappt börjat. VI vet inte vad AMD har o rockärmen.

Permalänk
Medlem
Skrivet av Oneone:

fan vilket saftigt pris :S , men bra prestanda oavsett! väntar på prisfall jag...

Jag tycker inte prestandan är tillräckligt bra mot mitt 970. Jag vill ha en rejäl ökning om jag ska byta upp mig, samma med 1080. Jag kommer att vänta på cannonlake och 1080 ti. Får se vad 1080ti hamnar på i pris. Kostar det 10 000 kr så blir det definitivt inget köp för nån måtta får det va. Jag köpte mitt Gigabyte GeForce GTX 970 WindForce OC för 3000 på black friday.

Permalänk
Medlem

Inväntar 1060 med spänning. Och AMD's modeller - förstås. Börjar bli dags att byta ut 750ti..

Visa signatur

Speldator :[I] AMD 5600X - 16GB fläskigt ram - AMD 580RX - AOC 32" Wide
HTPC : i5 3450S - 8GB G.Skill - Streacom F8

Permalänk
Medlem
Skrivet av Halldin:

Inte 4000 om partnertillverkarna snart ligger på 4200. Man får även väga in värdet av den tvååriga garantin man får på ett nyköp, lägre effektförbrukning, längre potentiellt drivrutinsstöd för hårdvaran etc. Sen beror det på om Simultaneous Multi Projection blir en stor grej i VR, då kommer 980Ti verkligen ligga i lä.

Jag skulle snarare säga 3k och ner för ett 980Ti.

Efter att ha sett priserna på de olika GTX 1080-korten fattar väl vemsomhelst att det inte kommer att släppas några GTX 1070-kort för 4200kr?

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Medlem
Skrivet av Vesh:

Fast det är ju nästan garanterat något som är fel vid det testet i 3D-mark.
Det är totalt orimligt att 1080 skulle vara så överlägset bäst i testet samtidigt som 1070 är sämst.

Om så är fallet är det testet med 1080 eller 1070 som det är fel på? Det är enkelt att påstå att något är felaktigt, påståenden bevisar dock inget, det gör resultat och just nu ser dom dåliga ut för 1070 i dx12. Om något är felaktig kan resonemanget förändras, men tills dess får vi lita på de resultat som faktiskt finns.

Skickades från m.sweclockers.com

Permalänk
Avstängd

Alltså, hoppas dessa kort blir lika RGB-bestyckade som 1080 verkar bli (siktar på en dator med endast RGB-komponenter.

Visa signatur

Huawei P30 || Huawei Watch GT2 (Classic)

Citera För Svar

Permalänk
Medlem
Skrivet av landahl:

Jag tycker inte prestandan är tillräckligt bra mot mitt 970. Jag vill ha en rejäl ökning om jag ska byta upp mig, samma med 1080. Jag kommer att vänta på cannonlake och 1080 ti. Får se vad 1080ti hamnar på i pris. Kostar det 10 000 kr så blir det definitivt inget köp för nån måtta får det va. Jag köpte mitt Gigabyte GeForce GTX 970 WindForce OC för 3000 på black friday.

precis, sitter med 970 SLI nu och ser inget mervärde i att uppgradera, kör ju i 1440p också där duger de fint än så länge. Får väll vänta och se vad som händer med priserna och när det kommer fler DX12 titlar för att se hur prestandan ser ut där, tex nya Deus Ex. Ska bli kul att se AMD också...Förväntar mig inga under dock.

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Medlem

@cardeci: Tänk dig exakt samma situation när du köper en bil. Säljare säger dock att om du vill åka 100km/h i mer än 30 min så måste mecka med motorn. Du ska inte behöva göra så när man köper en bil. Nvidia visade upp att 1080 ska vara väl kylt och bra och med deras throttleing så förlorar man i princip all Boost som de var glada att annonsera.

Så i andra ord är det fult trick av Nvidia, ja jag vet att referensekorten kan throttla men att throttla så mycket att den tappar en funktion + att den kostar 100 mer dollar ger mig bara hycklande vibbar från dom.

Nu kan jag direkt förvänta mig att 1070 inte kommer göra det då det är 1080 med bara disabled cores men med samma kylare men det är intressant att testa och ser hur den reagerar.

med Jays exempel så sa han själv att han körde med open test bench så man kan förvänta sig värre resultat med ett chassi.

Ps jag hatar inte 1080 utan jag hatar Founder editions bullshit från Nvidia med deras "premium" komponenter.

Permalänk
Medlem
Skrivet av Stoff3th3m4n:

Efter att ha sett priserna på de olika GTX 1080-korten fattar väl vemsomhelst att det inte kommer att släppas några GTX 1070-kort för 4200kr?

Initialt kan det ligga en smula högre, men väntar man några veckor är det inte alls otroligt. Komplett hade ju ett vanligt 1080 med ACX3.0 för runt 6500-6600, vilket är nära prognosen för det kortet.

Permalänk
Medlem
Skrivet av Halldin:

Initialt kan det ligga en smula högre, men väntar man några veckor är det inte alls otroligt. Komplett hade ju ett vanligt 1080 med ACX3.0 för runt 6500-6600, vilket är nära prognosen för det kortet.

Vilket också verkade vara fel då de tog bort det igen.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Medlem
Skrivet av Gauz:

Nu har jag inte läst hela eran diskussion men jag ville bara flika in och säga att detta stycket inte riktigt stämmer då Nvidia verkar ha satsat ganska mycket pengar på Vulkan api:t istället för att satsat på dx12, vilket jag varmt välkomnar med öppna armar, och som även kan ses om man kollar DOOM with Vulkan API on GeForce GTX 1080 videon.

Är inte insatt nog för att diskutera vulkan och har heller inte sett några gemförelser i denna api. Vad jag personligen dock kan våga gissa är att dx12 prestanda kommer gå hand-i-hand med vulkan prestanda när båda api:erna verkar vara mer systemnära och ha mer fokus på asynkrona beräkningar. Detta bör sätt samma krav på arkitekturerna för grafikkorten och bör validera föregående slutsats. Dock är detta endast spekulationer.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Stoff3th3m4n:

Vilket också verkade vara fel då de tog bort det igen.

Jag tror hur som helst att priserna är lite upptrissade vid lansering pga tillgång/efterfrågan. Har man lite is i magen och väntar så att partnertillverkarna (och för den delen återförsäljarna) får upp lite kvantiteter och konkurrerar mer mot varandra kommer priset sjunka. Därav "snart 4200" i originalposten.

Permalänk
Datavetare
Skrivet av AmdX2:

Fast någon workaround av asynchronous compute tror jag inte på. men vi får alla hoppas på gräddiga tester framöver =).

"Async compute" finns överhuvudtaget inte som term i DX12 eller Vulkan. Precis som "Hyperthreading" är Intels namn på deras implementation av SMT så är "async compute" AMDs namn på det man kan göra med ACE (Asynchronous Compute Engine) i GCN.

Ur ett rent teknisk korrekt perspektiv har alla GPUer som har programmerbara shaders (typ alla kort som minst stödjer DX9) fullt stöd för "async compute" då två saker som är asynkrona endast betyder att de inte har ett beroende av varandra på tidsaxeln.

Termen DX12 använder som du antagligen refererar till är "multi engine" och tvärt emot vad många tror så har faktiskt till och med Maxwell stöd för detta. Det folk typiskt menar med "async compute" är ett av flera användarfall för "multi engine", nämligen att DX12 tillåter (OBS tillåter, inte kräver) att två beräkningar som postas på olika köer (till olika "engines") kan köras parallellt. Så den tekniskt korrekta termen för vad folk menar med "async compute" är "async compute with parallel dispatch", något som DX12 överhuvudtaget inte nämner.

Tvärt emot vad folk verkar tro så har faktiskt till och med Maxwell stöd för "async compute with parallel dispatch", finns dock två problem här. Dels kan Maxwell bara köra en specifik beräkning per SM, vill man köra grafik och beräkning parallellt så måste man statiskt partitionera de tillgängliga SMerna. I Pascal har man förbättrat detta så partitioneringen är nu dynamisk.

Dold text

Det större problemet med "async compute with parallel dispatch" diskuterades en hel del på årets Game Developers Conference: det krävs väldigt mycket arbete för att använda detta på ett effektivt sätt. Tiden man investerar är inte heller allmänt användbar, även om man bara håller sig till GCN så är den optimala användningen för säg 380X annorlunda än 390X som är annorlunda än Fury X. Exakt hur man bäst använder detta beror dels på grundläggande arkitektur (som är samma för alla GCN men annorlunda i Nvidias och Intels GPUer), dels beror det också på relativ fördelning av shaders, minnesbandbredd och ROPs som skiljer sig mellan olika modeller. Det som nämndes på GDC är att mängden arbete man måste utföra står inte alls i rimlig proportion till de 0-10 % man idag verkar få ut från tekniken. Man hoppas ändå att man ska lyckas använda detta på sätt som ger betydligt mer.

Titta t.ex. på AoS, 280X får något lägre prestanda med DX12 trots att kretsen stödjer AMDs "async compute".

"async compute" är bara en liten finess som DX12 möjliggör, så här lång är det också en finess med ytterst marginell effekt. Den stora vinsten med DX12 är betydligt lägre belastning på CPU, lägre "overhead" samt en design av tekniken som långt bättre än tidigare möjlig användning av flera CPU-kärnor. Alla GPU mer DX12 drivare ser denna fördel, men i praktiken är det främst TDP-begränsade enheter som ser en faktiskt vinst, då därför de kan använda mer av sin TDP budget till sin iGPU. Stationära maskiner tenderar att se ungefär samma prestanda i DX11 som i DX12 då flaskhalsen nästan alltid är GPU och TDP är i stort sätt ett icke-problem, framförallt delar inte CPU och dGPUer TDP-budget.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av esoneson:

3DMark är väll en mer generell test av api:et och här får kortet stryk av 280x , du ser alltså inga problem med det? Om kortet presterar dåligt i ett sådant test kan man nog se det som att risken för dåligt prestanda i dx12 baserade spel är stor i iaf många kommande tittare. Att nvidia är starka på dx11 är ingen nyhet, och prestandan i detta api heller ingen överraskning. Vad som är överraskande är hur sakta och dålig dom anpassar sig mot framtida tekniker, att deras kort som ju har en majoritet av marknaden presterar mycket bättre i dx11 skulle till och med kunna leda till att utvecklare väljer det föråldrad api:et över det nya förbättrade. Detta leder i sin tur till långsammare utveckling. Men vars är problemet med detta?...

Skickades från m.sweclockers.com

Som redan påpekats finns ingen rimlig anledning till varför 1070 skulle ha signifikant lägre kapacitet i detta test än 1080, resultatet skala ungefär med klockfrekvens. Så detta resultat är rimligen ett drivrutinsproblem, något som också spekuleras om i artikeln.

Det enda man kan vara absolut säker på vad det gäller DX12 och Vulkan är att spridningen i hur olika kretsar presterar relativt varandra kommer vara väsentligt högre än för DX11. Detta är både fördelen och nackdelen med "low-level" APIer, de ger större möjligheter till riktigt vassa optimeringar men av exakt samma anledning finns en stor risk att man gör saker som passar illa på andra implementationer. Man kallar egenskapen att implementationsdetaljer blir mer synliga för användaren för att tekniken har en "leaky abstraction".

DX11 är en abstraktion som ger mindre möjligheter att exakt styra vad som händer, nackdelen med detta är att sådana abstraktioner typiskt tar med CPU-kraft. Fördelen är att det som ska utföras inte är specificerat lika detaljerat så det lämnar större möjligheter till att hantera saker på olika sätt, det i sin tur gör det då möjligt att bättre kompensera för eventuella svagheter i en GPU-design.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

"Async compute" finns överhuvudtaget inte som term i DX12 eller Vulkan. Precis som "Hyperthreading" är Intels namn på deras implementation av SMT så är "async compute" AMDs namn på det man kan göra med ACE (Asynchronous Compute Engine) i GCN.

Ur ett rent teknisk korrekt perspektiv har alla GPUer som har programmerbara shaders (typ alla kort som minst stödjer DX9) fullt stöd för "async compute" då två saker som är asynkrona endast betyder att de inte har ett beroende av varandra på tidsaxeln.

Termen DX12 använder som du antagligen refererar till är "multi engine" och tvärt emot vad många tror så har faktiskt till och med Maxwell stöd för detta. Det folk typiskt menar med "async compute" är ett av flera användarfall för "multi engine", nämligen att DX12 tillåter (OBS tillåter, inte kräver) att två beräkningar som postas på olika köer (till olika "engines") kan köras parallellt. Så den tekniskt korrekta termen för vad folk menar med "async compute" är "async compute with parallel dispatch", något som DX12 överhuvudtaget inte nämner.

Tvärt emot vad folk verkar tro så har faktiskt till och med Maxwell stöd för "async compute with parallel dispatch", finns dock två problem här. Dels kan Maxwell bara köra en specifik beräkning per SM, vill man köra grafik och beräkning parallellt så måste man statiskt partitionera de tillgängliga SMerna. I Pascal har man förbättrat detta så partitioneringen är nu dynamisk.

Det större problemet med "async compute with parallel dispatch" diskuterades en hel del på årets Game Developers Conference: det krävs väldigt mycket arbete för att använda detta på ett effektivt sätt. Tiden man investerar är inte heller allmänt användbar, även om man bara håller sig till GCN så är den optimala användningen för säg 380X annorlunda än 390X som är annorlunda än Fury X. Exakt hur man bäst använder detta beror dels på grundläggande arkitektur (som är samma för alla GCN men annorlunda i Nvidias och Intels GPUer), dels beror det också på relativ fördelning av shaders, minnesbandbredd och ROPs som skiljer sig mellan olika modeller. Det som nämndes på GDC är att mängden arbete man måste utföra står inte alls i rimlig proportion till de 0-10 % man idag verkar få ut från tekniken. Man hoppas ändå att man ska lyckas använda detta på sätt som ger betydligt mer.

Titta t.ex. på AoS, 280X får något lägre prestanda med DX12 trots att kretsen stödjer AMDs "async compute".

"async compute" är bara en liten finess som DX12 möjliggör, så här lång är det också en finess med ytterst marginell effekt. Den stora vinsten med DX12 är betydligt lägre belastning på CPU, lägre "overhead" samt en design av tekniken som långt bättre än tidigare möjlig användning av flera CPU-kärnor. Alla GPU mer DX12 drivare ser denna fördel, men i praktiken är det främst TDP-begränsade enheter som ser en faktiskt vinst, då därför de kan använda mer av sin TDP budget till sin iGPU. Stationära maskiner tenderar att se ungefär samma prestanda i DX11 som i DX12 då flaskhalsen nästan alltid är GPU och TDP är i stort sätt ett icke-problem, framförallt delar inte CPU och dGPUer TDP-budget.

Väl skrivet, inte många här som förstår detta

Skickades från m.sweclockers.com

Permalänk

Om man spelar mestadels overwatch på 1440p 144hz och vill ha härliga 144fps, ska jag satsa på detta eller 1080?

Tack.

Permalänk
Medlem
Skrivet av Yoshman:

Som redan påpekats finns ingen rimlig anledning till varför 1070 skulle ha signifikant lägre kapacitet i detta test än 1080, resultatet skala ungefär med klockfrekvens. Så detta resultat är rimligen ett drivrutinsproblem, något som också spekuleras om i artikeln.

Det enda man kan vara absolut säker på vad det gäller DX12 och Vulkan är att spridningen i hur olika kretsar presterar relativt varandra kommer vara väsentligt högre än för DX11. Detta är både fördelen och nackdelen med "low-level" APIer, de ger större möjligheter till riktigt vassa optimeringar men av exakt samma anledning finns en stor risk att man gör saker som passar illa på andra implementationer. Man kallar egenskapen att implementationsdetaljer blir mer synliga för användaren för att tekniken har en "leaky abstraction".

DX11 är en abstraktion som ger mindre möjligheter att exakt styra vad som händer, nackdelen med detta är att sådana abstraktioner typiskt tar med CPU-kraft. Fördelen är att det som ska utföras inte är specificerat lika detaljerat så det lämnar större möjligheter till att hantera saker på olika sätt, det i sin tur gör det då möjligt att bättre kompensera för eventuella svagheter i en GPU-design.

Jag är med dig på att det mest trolig är ett drivrutinsproblem med det är fortfarande inte fakta utan spekulationer, för att ge exempel så skulle furyX mest troligt ha goda överklokningsmarginal och 970 ha 4 gb användbart vram, nvidia har också kort i 900 serien med komplett dx12.1 stöd... Alla dessa påståenden var 'mest troliga' eller påståda, fakta har dock senare motbevisat samtliga. Därför är mest troligt inte bra nog. Jag besvarade från början @anon999 inlägg som påstod att priset var enda nackdelen med detta kort och jag står fast vid att det i nuläget finns fler nackdelar förutom priset, däribland dx12 supporten.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av cardeci:

@Rolfenstein: Ser priset ut som en kurva som går rakt uppåt? Folk säger att grafikkort var billigare förr, men om du tittar på grafen ser den mer ut som sin(t)+offset än sqrt(t) eller liknande.

Det var billigare förr, när jag köpte i alla fall. Sen att priset har gått upp p.g.a. att dollarn har gått upp är ju en annan sak. Priset har i slutändan ändå gått upp för konsumenten i Sverige, i alla fall med 10xx serien.

Permalänk
Medlem

Imponerande att "mellanpris"-kortet slår förra generationens toppkort på fingrarna, kan inte erinra mig att det har hänt tidigare. Avvaktar och ser vad som händer med priset då lagren av 980/Ti/Titan är borta från hyllorna. Just nu känns det som 1070 i SLI är ungefär samma peng som ett 1080. Vet inte vad som händer i framtiden men att spela på 4K...tja, vi är inte riktigt där än.

Visa signatur

Fractal Design Define 7 | Seasonic Prime PX 750W | MSI MEG Z490 UNIFY | Intel Core i7-10700K | Noctua NH-D15 chromax.black | Corsair Vengeance LPX Black 32GB | MSI GeForce RTX 3080 VENTUS 3X OC 10GB | ASUS Essence STX II | Triangle AIO Twin | Beyerdynamic DT 1990 Pro