Permalänk
Medlem

[quote postid="16254803" userid="274095" name="Theodorg"]
Sen AMD:s radeon rx 480-8GB knappt kan utmana NVIDIAS 970-4GB i dagsläget finns det någon verklig anledning att köpa kortet.
Rx 480 går för runt 2800- 3100kr medans gtx 970 går för 2400-2700kr.

Når allt stemmer, når man har drivere og en Api (Vulkan) som fungerer:
https://www.youtube.com/watch?v=EyuoQIuEZj0

Er 2800-3000kr for mye for et kort som ligger kun litt etter GTX 1070?
I Nvidia gameworks titler så vil det få stryk....of course...

Visa signatur

Oldschool overclocker

Permalänk
Inaktiv
Skrivet av PalmiNio:

Min källor säger typ aldrig...

4gb har nog gått till största delen US för att klara 199$ priset

Skickades från m.sweclockers.com

Ett tag var England det enda stället i Europa det gick att beställa 4GB kort ifrån men nu kanske det börjar lossna...
https://geizhals.eu/xfx-radeon-rx-480-core-edition-rx-480m4bf...
EDIT: I några timmar fanns det några länder till förutom England som listade 4GB korten men nu är de borta igen.

I Thailand har jag bara hittat 8GB kort och de kostar ca 100 kr mindre än i Europa.
https://www.advice.co.th/search?keyword=rx+480

Ganska märkligt att den version som verkligen lever upp till 'Best bang for the buck' är det man levererar sist.

Permalänk
Medlem
Skrivet av PalmiNio:

Skojar du? Går om knappt? Du måste sitta på ett av de högst factoryöverklockade GTX970 för att knappt ha skillnad.

Ref mot ref är det 20-25% fördel till RX480.

Folk får sluta jämföra något Super Superclocked GTX970 mot ett ref klock RX480.

Dessutom ett GTX970 kort som till och med är dyrare än RX480......går man på 4GB kort så är 970 SSC ca 500kr dyrare....

Jämför då med ett RX480 Black Editiom åtminstonde så det blir lite balans i resonemanget!

Skickades från m.sweclockers.com

Jag missade att det var ett ssc kort från evga som det jämfördes med. Då blir det ju en helt annan skillnad.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Jag missade att det var ett ssc kort från evga som det jämfördes med. Då blir det ju en helt annan skillnad.

Coolers.

Fortfarande kan man dock ifrågasätta RX480 vs GTX970 om man är intresserad av DX11 spel där man med OC och dagens 970 priser får väldigt bra krut för pengarna i DX11 spel.

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem

Angående DirectX 12. Bara för att AMD har bättre stöd just nu för det så betyder det inte att det kommer bli bra i alla titlar.

DirectX12 kräver att utvecklaren kodar specifikt för vissa grafikkort, och på väldigt speciella sätt (closer-to-metal). Fördelen är att det kan gå rejält mycke snabbare. Nackdelen? Stödet är _INTE_ generellt. Så bara för att Doom är snabbare med vulcan så betyder det inte att "nästa" spel är det. Utan det kommer bli från spel till spel hur implementeringen är gjord.

Fun fact: Från början var ALLT close-to-metal men det blev så ojämt stöd mellan spel/grafikkort att man gjorde mer generiska drivare. Så DX12 kan vara bästa som hänt, men kan också suga.

Men nu kommer fördelen för AMD: Konsollerna kommer köra DX12 liknande gränssnitt så de stora utvecklarna kommer vara vana att utveckla close-to-metal för DX12 så nackdelen jag presenterade kommer vara väldigt liten

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Medlem
Skrivet av talonmas:

Angående DirectX 12. Bara för att AMD har bättre stöd just nu för det så betyder det inte att det kommer bli bra i alla titlar.

DirectX12 kräver att utvecklaren kodar specifikt för vissa grafikkort, och på väldigt speciella sätt (closer-to-metal). Fördelen är att det kan gå rejält mycke snabbare. Nackdelen? Stödet är _INTE_ generellt. Så bara för att Doom är snabbare med vulcan så betyder det inte att "nästa" spel är det. Utan det kommer bli från spel till spel hur implementeringen är gjord.

Fun fact: Från början var ALLT close-to-metal men det blev så ojämt stöd mellan spel/grafikkort att man gjorde mer generiska drivare. Så DX12 kan vara bästa som hänt, men kan också suga.

Men nu kommer fördelen för AMD: Konsollerna kommer köra DX12 liknande gränssnitt så de stora utvecklarna kommer vara vana att utveckla close-to-metal för DX12 så nackdelen jag presenterade kommer vara väldigt liten

Vad pratar du om?

All programmering kräver att man programmerar med ett API som ett grafikkort har stöd för, så har det alltid varit. Ingen skillnad på DX12 utan skillnaden är att Maxwell inte haft stöd för DX12/Vulkan funktioner och lider därav med det. Detta kommer inte hjälpas av någon anna programmering utan mycket av funktionerna för Parallell körning av olika jobb stöds helt enkelt inte av Maxwell utan den arkitekturen är anpassad för serialt arbete.

Stödet hos GPU arkitekturer är lika generellt som det var när DX11 kom, en del gamla kort gjorde sig inte bra på DX11 utan var bättre på DX10.

Poängen i första taget är att man låter CPUn jobba parallellt med GPUn så istället för att 1 kärna/tråd jobbar mot 1 mottagande GPU så kan flera kärnor/trådar jobba mot GPUn samtidigt. Därför ser vi en bra skalbarhet ju fler kärnor/trådar CPUn stödjer. Detta är en av anledningarna till varför vi får sådana extrema bumps på låga upplösningar då de flesta faktiskt sitter på Mulit-Core CPUer idag (4 Trådar är ganska standard idag). Det har visat sig att även en högpresterande CPU så som Intel gynnas enormt av att låta fler trådar jobbar samtidigt.

Största skillnaden är att drivrutinerna under DX11 agerar task hanterare mellan CPU och GPU så när ett sett tasks kommer in från CPUn så fördelas det ut i en typ av Parallellt arbete (async) till GPUn i den mån det går att göra olika task parallellt.

I DX12 så ingår det direkt i APIn så att istället för att gå via drivrutinerna så går tasken parallellt direkt från CPUn till GPUn och här blir det då en fråga om hur många och vilka tasks som en GPU arkitektur klarar av att köra parallellt mot vad den måste köra seriellt.

Saxat från nVidia:
"- Don’t rely on the driver to parallelize any Direct3D12 works in driver threads
- On DX11 the driver does farm off asynchronous tasks to driver worker threads where possible – this doesn’t happen anymore under DX12. While the total cost of work submission in DX12 has been reduced, the amount of work measured on the application’s thread may be larger due to the loss of driver threading.
- The more efficiently one can use parallel hardware cores of the CPU to submit work in parallel, the more benefit in terms of draw call submission performance can be expected."

Vad den stora skillnaden är mellan GCN och Maxwell/Pascal är att vid Resource Binding så ligger AMD på Tier 3 och nVidia på Tier 2 vilket ger följande:
Maximum number of Constant Buffer Views in all descriptor tables per shader stage:
14 stycken vs Full Heap
Maximum number of Unordered Access Views in all descriptor tables across all stages
64 stycken vs Full Heap

Kort sagt så finns där en stor spärr i vad Maxwell och Pascal kan göra parallellt med CPUn.

Med DX12 kan en CPU numera skicka extremt många draw calls samtidigt vilket gör att du kan fylla ut en GPUs belastning genom att köra mer och mer parallellt men detta kräver att även GPUn klarar av att hantera det CPUn vill att den ska rita parallellt.

Det är här den stora skillnaden är idag, nVidia har varit extremt bra med sina drivrutiner och sin förmåga att strukturera köer vilket gjort att man vid seriella uträkningar kunnat uppvisa betydligt bättre prestanda än AMD.

Nu vänder borde och allt mer fokus är på parallell prestanda där själva grafikmotorn själv styr saker som bindingen av resurser, trackingen av resurser och synkningen av resurser mellan CPU o GPU.

Så vi får sluta snacka om att vi pratar om något är specifik kodat - det handlar hur vidare GPUn kan köra parallellt effektivt eller inte. Kan den inte det, typ Maxwell, så kommer inte fördelarna med DX12/Vulkan vara speciellt märkbara då alla draw calls måste ändå samlas och struktureras för seriell körning.

Du kan likna det vid att för så kom alla draw calls från 1 kärna i första hand. Detta betydde att en 2 kärnig CPU som körs i högre klock än 4 kärnig CPU ändå oftast presterade bättre i Spel som var icke CPU bindande.

Med någon som packar på ett löpande band (Pipen), 1 Gubbe kunde skicka på 1 band (1 tråd på CPUn) till nästa gubbe (GPUn). Hur bra det gick berodde på hur snabbt Gubbe ett kunde skicka till nästa Gubbe och hur effektivt man strukturerade upp jobbet på detta bandet, aka seriellt.

Idag med Vulkan och DX12 kan programmeraren direkt skicka draw calls från valfri kärna/tråd vilket gör att helt plötsligt betyder det inte att den som har bäst kraft per tråd är bäst utan den som har flest trådar är bäst.

Så nu helt plötsligt har du flera band och flera gubbar (Flera kärnor) som skickar till GPUn vilket numera kräver att GPUn inte måste vara duktigast på att strukturera upp jobbet (seriellt) utan måste vara duktigast på att göra flest saker samtidigt (parallellt).

Där har du varför AMD på CGN slår Maxwell just nu i Vulkan och DX12.

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem

Vill man förstå det ganska enkelt så finns denna på från Mahigan på Overclockers.

Han har fått mycket skit för alla menar att hans resonemang bara gäller AoS och det är "specifikt gjort för AMD". Nu med Vulkan och Hitman med mera så visar det sig ganska tydligt att det handlar inte om att man programmerar specifikt för AMD utan att AMD har en arkitektur som är mer optimerat för parallella körningar:

http://www.overclock.net/t/1569897/various-ashes-of-the-singu...

"Maxwell's Asychronous Thread Warp can queue up 31 Compute tasks and 1 Graphic task. Now compare this with AMD GCN 1.1/1.2 which is composed of 8 Asynchronous Compute Engines each able to queue 8 Compute tasks for a total of 64 coupled with 1 Graphic task by the Graphic Command Processor. See bellow:"

"This means that AMDs GCN 1.1/1.2 is best adapted at handling the increase in Draw Calls now being made by the Multi-Core CPU under Direct X 12.

Therefore in game titles which rely heavily on Parallelism, likely most DirectX 12 titles, AMD GCN 1.1/1.2 should do very well provided they do not hit a Geometry or Rasterizer Operator bottleneck before nVIDIA hits their Draw Call/Parallelism bottleneck. The picture bellow highlights the Draw Call/Parallelism superioty of GCN 1.1/1.2 over Maxwell 2:"

"A more efficient queueing of workloads, through better thread Parallelism, also enables the R9 290x to come closer to its theoretical Compute figures which just happen to be ever so shy from those of the GTX 980 Ti (5.8 TFlops vs 6.1 TFlops respectively) as seen bellow:"

"nVIDIA, on the other hand, does much better at Serial scheduling of work loads (when you consider that anything prior to Maxwell 2 is limited to Serial Scheduling rather than Parallel Scheduling). DirectX 11 is suited for Serial Scheduling therefore naturally nVIDIA has an advantage under DirectX 11. In this graph, provided by Anandtech, you have the correct figures for nVIDIAs architectures (from Kepler to Maxwell 2) though the figures for GCN are incorrect (they did not multiply the number of Asynchronous Compute Engines by 8):"

" Therefore what were seeing with the Nvidia numbers is the Nvidia draw call bottleneck showing up under DX12. Nvidia works around this with its own optimizations in DX11 by prioritizing workloads and replacing shaders. Yes, the nVIDIA driver contains a compiler which re-compiles and replaces shaders which are not fine tuned to their architecture on a per game basis. NVidia's driver is also Multi-Threaded, making use of the idling CPU cores in order to recompile/replace shaders. The work nVIDIA does in software, under DX11, is the work AMD do in Hardware, under DX12, with their Asynchronous Compute Engines."

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem
Skrivet av JacobMardfelt:

Det är ju helt galet vad RX 480 rullar på i Doom med Vulkan påslaget i jämförelse med 970!

http://www.gamersnexus.net/game-bench/2510-doom-vulkan-vs-ope...

Någon som vet om detta kommer var ngt generellt i alla spel då RX480 har bättre stöd eller beror det på drivrutiner??

Tacksam för svar, går i köptankar

I videon du länkat säger har du svaret på din fråga. Jag tror tom. han nämner det 3 eller 4 ggr

Visa signatur

MSI MPG X870E Carbon WiFi| AMD Ryzen 9 9800X3D@5,4 GHz locked| MSI MAG Coreliquid A15 360| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-37-37-50| MSI RTX 4090 Suprim X| Asus ROG PG32UCDM QD-OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Medlem
Skrivet av PalmiNio:

Vad pratar du om?

All programmering kräver att man programmerar med ett API som ett grafikkort har stöd för, så har det alltid varit. Ingen skillnad på DX12 utan skillnaden är att Maxwell inte haft stöd för DX12/Vulkan funktioner och lider därav med det. Detta kommer inte hjälpas av någon anna programmering utan mycket av funktionerna för Parallell körning av olika jobb stöds helt enkelt inte av Maxwell utan den arkitekturen är anpassad för serialt arbete.

Stödet hos GPU arkitekturer är lika generellt som det var när DX11 kom, en del gamla kort gjorde sig inte bra på DX11 utan var bättre på DX10.

Poängen i första taget är att man låter CPUn jobba parallellt med GPUn så istället för att 1 kärna/tråd jobbar mot 1 mottagande GPU så kan flera kärnor/trådar jobba mot GPUn samtidigt. Därför ser vi en bra skalbarhet ju fler kärnor/trådar CPUn stödjer. Detta är en av anledningarna till varför vi får sådana extrema bumps på låga upplösningar då de flesta faktiskt sitter på Mulit-Core CPUer idag (4 Trådar är ganska standard idag). Det har visat sig att även en högpresterande CPU så som Intel gynnas enormt av att låta fler trådar jobbar samtidigt.

Största skillnaden är att drivrutinerna under DX11 agerar task hanterare mellan CPU och GPU så när ett sett tasks kommer in från CPUn så fördelas det ut i en typ av Parallellt arbete (async) till GPUn i den mån det går att göra olika task parallellt.

I DX12 så ingår det direkt i APIn så att istället för att gå via drivrutinerna så går tasken parallellt direkt från CPUn till GPUn och här blir det då en fråga om hur många och vilka tasks som en GPU arkitektur klarar av att köra parallellt mot vad den måste köra seriellt.

Saxat från nVidia:
"- Don’t rely on the driver to parallelize any Direct3D12 works in driver threads
- On DX11 the driver does farm off asynchronous tasks to driver worker threads where possible – this doesn’t happen anymore under DX12. While the total cost of work submission in DX12 has been reduced, the amount of work measured on the application’s thread may be larger due to the loss of driver threading.
- The more efficiently one can use parallel hardware cores of the CPU to submit work in parallel, the more benefit in terms of draw call submission performance can be expected."

Vad den stora skillnaden är mellan GCN och Maxwell/Pascal är att vid Resource Binding så ligger AMD på Tier 3 och nVidia på Tier 2 vilket ger följande:
Maximum number of Constant Buffer Views in all descriptor tables per shader stage:
14 stycken vs Full Heap
Maximum number of Unordered Access Views in all descriptor tables across all stages
64 stycken vs Full Heap

Kort sagt så finns där en stor spärr i vad Maxwell och Pascal kan göra parallellt med CPUn.

Med DX12 kan en CPU numera skicka extremt många draw calls samtidigt vilket gör att du kan fylla ut en GPUs belastning genom att köra mer och mer parallellt men detta kräver att även GPUn klarar av att hantera det CPUn vill att den ska rita parallellt.

Det är här den stora skillnaden är idag, nVidia har varit extremt bra med sina drivrutiner och sin förmåga att strukturera köer vilket gjort att man vid seriella uträkningar kunnat uppvisa betydligt bättre prestanda än AMD.

Nu vänder borde och allt mer fokus är på parallell prestanda där själva grafikmotorn själv styr saker som bindingen av resurser, trackingen av resurser och synkningen av resurser mellan CPU o GPU.

Så vi får sluta snacka om att vi pratar om något är specifik kodat - det handlar hur vidare GPUn kan köra parallellt effektivt eller inte. Kan den inte det, typ Maxwell, så kommer inte fördelarna med DX12/Vulkan vara speciellt märkbara då alla draw calls måste ändå samlas och struktureras för seriell körning.

Du kan likna det vid att för så kom alla draw calls från 1 kärna i första hand. Detta betydde att en 2 kärnig CPU som körs i högre klock än 4 kärnig CPU ändå oftast presterade bättre i Spel som var icke CPU bindande.

Med någon som packar på ett löpande band (Pipen), 1 Gubbe kunde skicka på 1 band (1 tråd på CPUn) till nästa gubbe (GPUn). Hur bra det gick berodde på hur snabbt Gubbe ett kunde skicka till nästa Gubbe och hur effektivt man strukturerade upp jobbet på detta bandet, aka seriellt.

Idag med Vulkan och DX12 kan programmeraren direkt skicka draw calls från valfri kärna/tråd vilket gör att helt plötsligt betyder det inte att den som har bäst kraft per tråd är bäst utan den som har flest trådar är bäst.

Så nu helt plötsligt har du flera band och flera gubbar (Flera kärnor) som skickar till GPUn vilket numera kräver att GPUn inte måste vara duktigast på att strukturera upp jobbet (seriellt) utan måste vara duktigast på att göra flest saker samtidigt (parallellt).

Där har du varför AMD på CGN slår Maxwell just nu i Vulkan och DX12.

TIL

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Medlem
Skrivet av PalmiNio:

Idag med Vulkan och DX12 kan programmeraren direkt skicka draw calls från valfri kärna/tråd vilket gör att helt plötsligt betyder det inte att den som har bäst kraft per tråd är bäst utan den som har flest trådar är bäst.

Innebär det i stort sett att det krävs i7 för att få någon vidare prestandaskjuts? Alla tester jag har sett i Doom som uppvisat stora prestandaökningar har utförts med div. i7-processorer, skulle vara intressant att se motsvarande siffror för t.ex. i5.

Visa signatur

FD North | Gigabyte B650 AORUS Elite AX v2 | 9800X3D | NZXT Kraken Elite 240 | 32GB Corsair Vengeance 6000MHz CL30 | Corsair RM850x Shift | Kingston Fury 2TB NVMe | 4070 Super FE | LG 42" C4

Permalänk
Medlem
Skrivet av ågren:

Innebär det i stort sett att det krävs i7 för att få någon vidare prestandaskjuts? Alla tester jag har sett i Doom som uppvisat stora prestandaökningar har utförts med div. i7-processorer, skulle vara intressant att se motsvarande siffror för t.ex. i5.

Nope inte nödvändigtvis då en i7:a redan har "bäst" enkeltrådsprestanda som finns så den är redan "bäst" på att maxa antalet draw calls.

Dock är Fler Kärnor = Bättre vilket för var Starkast Kärna = Bättre.

Det klassiska har varit att en i7 x 4 kärnor @ 3,4ghz presterat bättre än en i7 x 6 kärnor @ 3ghz då den i 1 tråd presterar bättre.

Men nu kan den som ha flest kärnor skicka fler draw calls än den som har få kärnor vilket i teorin borde betyda att alla moderna CPUer får bra gains då vi

Eftersom alla CPUer idag är 4 eller 6 kärnor så borde ökningen vara all over the board och teoretiskt mer för CPUer med 6 kärnor men med svagare prestanda per tråd.

Intressant skulle vara och se hur Vulkan står sig mellan en i7 på 4 kärnor mot en FX med 8 kärnor.

Eller ännu mer intressant hur i3 SKylake så som 6100 med sina 2 kärnor står sig mot en FX-6350 som har 6 kärnor men är svagare per kärna.

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem
Skrivet av ågren:

Innebär det i stort sett att det krävs i7 för att få någon vidare prestandaskjuts? Alla tester jag har sett i Doom som uppvisat stora prestandaökningar har utförts med div. i7-processorer, skulle vara intressant att se motsvarande siffror för t.ex. i5.

Nej, du behöver inte en i7 för att få denna effekten. I vissa fall kommer i7:or inte få någon boost alls eftersom grafiktråden redan tidigare har varit belastad under 100% rent teoretiskt. Då snackar jag endast om minimering av overhead och inte "async compute" med shaders. I de fallen skulle endast "sämre" processorer som varit belastade till 100% få nytta av det. Men kort och gott så kommer det bli mindre belastning på alla processorer.

Eftersom overhead (anrop för drawcalls tar kortare tid) blir minimerat så betyder det rent allmänt att det krävs mycket mindre CPU-kraft för att generera full belastning av GPU. Och kan man dessutom lägga ut anropen över fler kärnor så delar man den totala tiden för att skicka alla kommandon med antal kärnor (i grova drag).

Så alla processorer får nytta av detta. De som får mest ut av det är de som har flest kärnor och de som har varit belastade till 100%. Under förutsättning att de som utvecklat motorn använder alla kärnor till att skicka draw calls.

Det betyder också att det finns mer processorkraft över till fysikmotorer och AI.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av PalmiNio:

Yes, the nVIDIA driver contains a compiler which re-compiles and replaces shaders which are not fine tuned to their architecture on a per game basis. NVidia's driver is also Multi-Threaded, making use of the idling CPU cores in order to recompile/replace shaders. The work nVIDIA does in software, under DX11, is the work AMD do in Hardware, under DX12, with their Asynchronous Compute Engines."[/b][/i]

Är det därför som snön ser annorlunda ut i Ashes of the singularity på Nvidia-kort?

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem

ifall devs börjar optimera vulkan i nya spel så slår amd ganska hårt till. Teoretiskt är väll amds kort kraftfullare, men halsen är i software?

https://www.techpowerup.com/224095/doom-with-vulkan-renderer-...

BF1 blir kanse en sån spel?

Skickades från m.sweclockers.com

Visa signatur

Gaming: i7 13700k | 3080 Tuf oc | 32gb | 2TB nvme | Evga 1000 P2

HTPC: 3400g | 16gb | 250gb nvme

NAS: 12600k | 32gb | 512gb ssd | 2x1TB nvme | 3x16TB exos

Permalänk
Avstängd

3:e parts lösning, 8pin och kortet blir finemang. Idag avråder jag från referenskortet.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem
Skrivet av GilbertG:

Är det därför som snön ser annorlunda ut i Ashes of the singularity på Nvidia-kort?

Korrekt

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem
Skrivet av kettu92:

ifall devs börjar optimera vulkan i nya spel så slår amd ganska hårt till. Teoretiskt är väll amds kort kraftfullare, men halsen är i software?

https://www.techpowerup.com/224095/doom-with-vulkan-renderer-...

BF1 blir kanse en sån spel?

Skickades från m.sweclockers.com

Halsen är att GCN är gjort för parallella körningar vilket DX11 inte är gjort för utan det är 1 CPU som skickar Dra Calls till en drivrutin som ser måste hålla koll på att varje Call utförs rätt, typ som att hålla redan på att pusselbitarna ligger i ordning. nVidia gör det genom att via drivrutinerna använda lediga kärnor för att omvandla draw calls till optimerade task för en mer seriell utförning.

I DX12 och Vulkan så bestämmer utvecklaren själv hur många och hur draw callsens ska portioneras ut, aka fler trådar på CPUn kan användas. Dock måste mottagaren, GPUn, vara optimerad för att jobba parallellt vilket GCN är mer gjrord för än gamla Maxwell kort (Kepler kan inte alls jobba parallellt).

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem
Skrivet av kettu92:

BF1 blir kanse en sån spel?

Skickades från m.sweclockers.com

Med tanke på att DICE var de första som jobbade med Mantle och gjorde det väldigt nära AMD samt att DX12 och Vulkan i stort sett är Mantle, så känns det ju givet BF1 fortsätter med det

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem
Skrivet av ClintBeastwood:

Inget. Man kan skriva i tråden att han borde vänta på att kortet släpps och riktiga priser finns istället för att rekommendera ett kort som vi egentligen inte har någon aning om. Det var lite konstigt att alternativet ens fanns med.
Någon som röstade på 1060 kanske kan förklara hur tankegångarna gick?

Får man rösta på 1060 nu då?

Permalänk
Medlem
Skrivet av hultron:

Får man rösta på 1060 nu då?

Har väl aldrig försökt neka någon men var lite intresserad på hur folk tänkte när dom rekommenderade kort som vi inte visste hur de skulle prestera.

Jag hade klickat i 1060-rutan nu när vi vet.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Visa signatur

Intel core i7 4770k 4.4ghz|Msi 780 Lightning bios (skyn3t)|Msi Mpower Z87|16Gb,kingston hyperX predator,2400 MhZ| windows 8.1 Pro|H100 crosshair|Cooler Master HAF X|Antec High Current Gamer 900W 80+Bronze|smartPhone Lg g2 32Gb
Headset| logitech g430

Permalänk
Medlem

Finns det någon anledning att köpa ett tredjeparts RX 480 nu?

Jag har vart sugen på att gå över till AMD igen för att känna hur deras camp är nuförtiden.
Men sen 1060 släpptes så känns det typ som att jag vet att jag ändå kommer köpa ett sånt.

Det enda är att jag kände att det var tråkigt när inte SLI stöds. Även om folk alltid säger åt mig att köpa ETT dyrare kort istället för två billigare så tycker jag både det känns kul att ha en lite annorlunda setup och sen så är valmöjligheten en skön känsla att ha med sig.

Tanken var väl ett Sapphire Nitro 480 vid löning men nu lutar det nog åt 1060 ändå.
Jag lirar inte asmycket nu men tror det är för att jag sitter med ett 660Ti och inte kan ställa upp grafiken så att spelen blir njutbara.
Priserna verkar ju vara i samma nivå här i sverige på båda korten så det känns som att om jag nu gillar att spela in mina Dirt Rally sträckor i Shadowplay så finns det ingen anledning att gå över till AMD.

Kan ni övertyga mig om varför 480 vore bättre? Och då kollar jag endast på 8gb versionen.

Visa signatur

Specs: Ryzen 3600XT, 16gb Corsair Vengeance DDR4 3200MHz, GTX 1080 Founders Edition

Permalänk
Medlem

@najtrows: Svårt att göra i detta land detta land tyvärr. I tex England där de inledande priserna på Sapphires, XFX, Gigabyte och Powercolors custom kort har ett längre pris än vad reference korten har hade det varit lättare att rekommendera (kommer dock att ändras i dagrana då reference korten där ser ut att snart ska droppa under 220 pund (2480 kr). Särskilt när 1060 ser ut att vara en 500-700+ kr mer där för modellerna från Asus, MSI, Gigabyte mfl.

Om vi hade haft 4 GB modellen tillgänglig i Sverige som England har för 2100 kr så hade jag rekommenderat alla mina vänner som sitter med en 1080p skärm att köpa det kortet idag.

Visa signatur

MSI MPG X870E Carbon WiFi| AMD Ryzen 9 9800X3D@5,4 GHz locked| MSI MAG Coreliquid A15 360| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-37-37-50| MSI RTX 4090 Suprim X| Asus ROG PG32UCDM QD-OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Medlem

@Gambit_2K: mjo, jag kör ju främst på 1080p skärm men när jag kör bilspel så gör jag det på en 4k 55" TV (jag har inte betalat för den, min bror har lånat ut den till mig för den "tar för mycket plats" enligt honom. jag är glad och nöjd som får låna den.) så det vore kul om det kan prestera ok över 1080p ock. Kanske inte kör Rallyspel i 30fps men när jag kör Euro Truck så vore det lugnt om det var i 30fps om det är 4k

Jag vill planera för framtiden, jag gillar inte att köpa gpu oftare än typ var 3-4e år. tror 4gb grafikminne inte kommer räcka i många år till.
Sen får jag nog se vad som finns i lager när jag väl har cash, jag vill inte vänta mycket längre då jag gått väldigt många år utan att uppgradera.

Visa signatur

Specs: Ryzen 3600XT, 16gb Corsair Vengeance DDR4 3200MHz, GTX 1080 Founders Edition

Permalänk
Medlem

@najtrows:

Vi får se på fredag när det ryktas om att Sapphire ska komma med sitt RX480, det är ju inte löning förrän nästa vecka, så de dagarna kan man väl vänta iaf. Jag har nästan bara kört med Sapphire-kort senaste åren, eftersom de haft bra pris och väldigt tysta fläktar.

Jag är iaf fortfarande väldigt nöjd med prestandan på mitt Sapphire 7870XT, så jag har inga uppgraderingsbehov än, men vi får se i höst/jul hur det ser ut

Visa signatur

Shadows never sleep...
Specs: Ryzen 5600X, Powercolor Fighter RX 6700XT, ASUS B550-I ITX, 32GB 3600MHz DDR4, Bitfenix Phenom µ-ATX

Permalänk
Medlem

@blackeagle: ja kanske. jag tycker ju dom kan prata lite mer om det så man har någon koll men det har känts som dom inte själva vetat om vad som händer. vi får se hur köpkåt jag är på måndag haha

Visa signatur

Specs: Ryzen 3600XT, 16gb Corsair Vengeance DDR4 3200MHz, GTX 1080 Founders Edition

Permalänk
Inaktiv
Permalänk
Medlem
Skrivet av anon999:

Och lägger man på en hundring så får man ett GTX1060, vilket är hur och vad man än jämför med olika modeller av 480 och 1060 ref och tredjeparts blir det ganska markant bättre kortet.

Lite synd att AMD 480 inte blev bättre tyvärr, som det är nu är det för dyrt för sin prestanda...

Visa signatur

Acer Predator Helios 300

Permalänk
Inaktiv
Skrivet av ggustavsson:

Och lägger man på en hundring så får man ett GTX1060, vilket är hur och vad man än jämför med olika modeller av 480 och 1060 ref och tredjeparts blir det ganska markant bättre kortet.

Lite synd att AMD 480 inte blev bättre tyvärr, som det är nu är det för dyrt för sin prestanda...

Exakt. Köper man ett RX 480 blir det inte i Sverige iaf. det är då säkert.

Permalänk
Medlem

Idag skulle jag gå på 1060. Speciellt då de kostar lika mycket och 1060 verkar vara ett lite tystare och snabbare kort.

Jag rådde en polare att köpa 1060 då det är lite mindre än 480 och Nvidias drivrutiner hanterar hans projektor bättre än AMDs

Jag hoppas priset på 480 sjunker när korten börjar komma i lager för just nu är det helt klart för dyrt.

Visa signatur

R9 5900X| 32Gb 3200Mhz FlareX| RTX 3090 |2Tb KC3000