Vad tycker du om nya generationen grafikkort?

Permalänk
Medlem
Skrivet av Edd1e:

Hah, kul att läsa gamla recensioner. Då var min söndag räddad!

https://i.imgur.com/1iY4FNB.png

"The GeForce FX 5800 Ultra will retail for $399"

Hade varit fint om GeForce RTX 5080 hade haft $399 MSRP.

Permalänk
Medlem

Enda kul på sistone tycker jag är Intels intåg på desktop grafikkortsmarknaden, ska hoppas de blir ännu bättre med tiden bara så det inte tar slut förrän de knappt hinner komma igång med deras satsning. När Nvidia rör sig mer och mer åt AI enterprise hållet och satsar mindre i desktop grafikkortsmarknaden så finns det väl lite hopp.

Visa signatur

Intel® Core i7-13700K @ 5.7/5.6GHz | ASRock Z690 Extreme | G.Skill Trident Z 32GB @ DDR4-3400 CL14 | Samsung EVO series M.2 + Sata SSDs 2TB | Intel Arc B580 | SuperFlower Titanium 1000W | Gigabyte M32Q 32"/1440p 165Hz | Arctic Freezer II 360 AIO | Phanteks P500A D-RGB

Permalänk
Medlem

För höga priser, för hög effekt, för lite prestandaupplyft och fortfarande fulande med 8/16Gb modeller.
Tror det hela kan kallas för Bajs.

Permalänk
Medlem
Skrivet av GuessWho:

"The GeForce FX 5800 Ultra will retail for $399"

Hade varit fint om GeForce RTX 5080 hade haft $399 MSRP.

Även om det följt inflationen. I Sverige har den varit ungefär 50% sen dess, så då skulle det vara $599 om man skulle gå efter det. (Istället för $999)

Permalänk

2012 köpte jag en topp-specad pc för 11'000kr. Idag kostar ett motsvarande bygge 45'000kr. Jensen kan köra upp sitt 5090 där solen inte skiner.

Visa signatur
Permalänk

Att det är dyrt går ju att lösa ganska enkelt uppgradera datorn mer sällan. Tycker dock att priserna är så motbjudande att där ska vara minst 100% råprestanda vinst för att uppgradera ett XX80 kort mot nyaste XX80 kortet. 3080 fungerar fortfarande dugligt för egen del, betalar inte 15000kr extra för att få lite raytracing🤣 väntar antagligen på 6080 eller 7080 och gör helt nytt bygge då.

Permalänk
Medlem

Sonen hade ett 4060 ett tag, fungerade fint för vad han gör.
När jag skulle uppgradera mitt 980 så tänkte jag att jag köper ett 5060 och ger sonen, så tar jag hans 4060 istället. (nej, jag spelar inte som kanske förståtts 😁)

Men det är fasen som 5060 är sämre än 4060.
Nu är ju detta längst ner i skalan, men en nergradering hade jag inte räknat med.
Blir nog 5070 till sonen istället och sälja 5060, för det va inget alls att hänga i granen.

Visa signatur

Mitt modermodem är trimmat!

Permalänk
Medlem
Skrivet av Hyllbert:

Även om det följt inflationen. I Sverige har den varit ungefär 50% sen dess, så då skulle det vara $599 om man skulle gå efter det. (Istället för $999)

Amerikanska inflationen vi måste gå efter när det kommer till Amerikanska bolag och deras produkter. Så det blir närmare $700 då dom haft högre inflation än oss.

$700 för 199 mm² kisel, allt var inte bättre förr. RTX 5080 ter sig nästan lite som en bra deal i jämförelse.

Permalänk
Medlem

Bra: Fortsatt ökad energi-effektivitet.
Anus: AI-funktioner som gynnar grafikkortstillverkare och spelutvecklare, men gör spelare till dubbla förlorare (betala mer pengar för ett nytt kort och få en sämre spelupplevelse.)

Permalänk
Skrivet av martinot:

Kan man köra två 5090 i NVLink (eller annan ersättare till gamla SLI), eller är det inget som stöds?

tror det lider av samma problem som gamla SLI.

Fungerar bara bra om spelet är programerat med bra stöd för det nvidia bara öppnar dörren för funktionen sen är det upp till speltillverkaren att implementera bra stöd för det och ytterst få speltillverkare är troligen sugna på att ha extra tillverkningskostnad på spelet för de typ 1% användare som kommer utnyttja det.

Om inte ett bra stöd för det är inprogrammerat i spelet så får man rulla tärningen hur mycket pengar man slängt ut i onödan för just det spelet.

Men har för mig att 3000 serien är sista generationen med stöd för det så ändå så död teknik hur som helst.

Visa signatur

ASUS B550-f-Gaming, R9 5800X3D, HyperX 3200Mhz cl16 128Gb ram, rtx 3070ti.
[Lista] De bästa gratisprogrammen för Windows
[Diskussion] De bästa gratisprogrammen för Windows

Permalänk
Medlem
Skrivet av HCP:

Men det är fasen som 5060 är sämre än 4060.
Nu är ju detta längst ner i skalan, men en nergradering hade jag inte räknat med.
Blir nog 5070 till sonen istället och sälja 5060, för det va inget alls att hänga i granen.

Låter konstigt, måste nästan vara något som är fel?
5060 är ju i grunden nästan samma kort ompaketerat och en gnutta förbättrat.

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk

köpte 5060ti 16gb och jag väldigt imponerad av pref/watt... jag menar förra grafikkort spelade jag 60fps vsync på och 3060 drog 130w eller så och nu drar den ca 70-80w med samma inställningar i tex dune spelet. och kortet blir inte mer än 65 grader eller så. 3060 fick jag upp till 80-90 grader.

Visa signatur

<<< AMD Ryzen 7 3700X | Corsair DDR4 16GB 3200mhz PRO RGB | WD SN850X m2 - Gigabyte 1tb m2 - Samsung 256gb SSD | Gigabyte RTX 3060 Vision 12GB OC
Fractal Design Define Compact vit TG | 2 st Acer 24" skärmar >>>

Permalänk
Medlem

Även om jag inte uppskattar priserna så ballade det ju ur redan med 20XX serien. Fick 3080 till MSRP som i år byttes mot 5070 Ti (9070 XT också, men saknade DLSS) för mellanskillnad på ~5k för 30-45% extra rå-prestanda beroende på spel. Det tycker jag ändå är ganska rimligt. Hade inte köpt kort om jag inte lyckats få de till eller under MSRP, dock.

Permalänk
Medlem
Skrivet av Svensktiger:

Det känns som att både AMD och nVidia siktar in sig på ett pris och sen göra så snikiga produkter dom bara kan.
Endast toppmodellerna kan anses vara nånting dom faktiskt försöker flytta fram prestandan med.
Det är ju t.ex. pinsamt att 5070 inte kan slå 4060TI när 1070 oftast slog 980TI och 2070 i många fall drog jämnt med 1080TI.

Det enda som kan rätta situationen är om Intel lyckas få fram ett väldigt bra mellanklass kort.

Instämmer. Det behövs ett Ryzen-fenomen som skakar liv i grafikkortssvängens fat cats också.

Visa signatur

Nu lurade jag dig att slösa bort ett par värdefulla sekunder av ditt liv på att läsa denna fullständigt poänglösa signatur!

Permalänk
Medlem
Skrivet av Svensktiger:

Det känns som att både AMD och nVidia siktar in sig på ett pris och sen göra så snikiga produkter dom bara kan.
Endast toppmodellerna kan anses vara nånting dom faktiskt försöker flytta fram prestandan med.
Det är ju t.ex. pinsamt att 5070 inte kan slå 4060TI när 1070 oftast slog 980TI och 2070 i många fall drog jämnt med 1080TI.

Menar du 4070ti antar jag?
5070 spöar ju 4060ti

Isåfall så håller jag i stort med hela 5000 serien är ju mest en 4000 refresh...
(Jag trodde det var mest AMD som döpte om gamla serier men antar de lär av varandra )

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem
Skrivet av Roger W:

Menar du 4080ti antar jag?
5070 spöar ju 4060ti

Om du menar 4080ti så håller jag i stort med hela 5000 serien är ju mest en 4000 refresh...
(Jag trodde det var mest AMD som döpte om gamla serier men antar de lär av varandra )

Menade 4070TI såklart
5070 är inte ens i närheten av 4080 korten.
Och 5070 är ju knappt en uppgradering mot ett 3080.

Permalänk
Medlem
Skrivet av Svensktiger:

Menade 4070TI såklart
5070 är inte ens i närheten av 4080 korten.
Och 5070 är ju knappt en uppgradering mot ett 3080.

Ah, nu är jag med
(håller som sagt helt med 5000-serien knappt har ett existensberättigande)

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Hjälpsam

RT förstörde marknaden för grafikkort!
Trots en massa kraft och kretsyta, kan man inte använd RT i någon större utsträckning på kort som kostar runt 5000 kr.
Utan RT hade korten varit billigare och haft bättre prestanda för vanlig rasterering.
Det var när RT kom som det gick åt helvete med datorn som spelplatform.
Så jag är väldigt missnöjd, det har jag varit under ganska många år.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem
Skrivet av Ratatosk:

RT förstörde marknaden för grafikkort!
Trots en massa kraft och kretsyta, kan man inte använd RT i någon större utsträckning på kort som kostar runt 5000 kr.
Utan RT hade korten varit billigare och haft bättre prestanda för vanlig rasterering.
Det var när RT kom som det gick åt helvete med datorn som spelplatform.
Så jag är väldigt missnöjd, det har jag varit under ganska många år.

Ja, man skulle faktiskt kunna kalla det för en regression snarare än en evolution av grafikkort.

Det är lite som att gå tillbaka till gamla tiders pixel shaders och individuella pixel/vertex pipelines i hårdvaran. Hela grejen med övergången till så kallad Unified Shaders, handlade ju om att kunna utnyttja grafikkretsen optimalt, så att man inte har en massa kisel som bara sitter och rullar tummarna tidvist, utan kan istället allokeras dit behovet finns.

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | DELL P991 Trinitron | Windows XP/10 Dual-Boot |

Permalänk
Datavetare
Skrivet av Ratatosk:

RT förstörde marknaden för grafikkort!
Trots en massa kraft och kretsyta, kan man inte använd RT i någon större utsträckning på kort som kostar runt 5000 kr.
Utan RT hade korten varit billigare och haft bättre prestanda för vanlig rasterering.
Det var när RT kom som det gick åt helvete med datorn som spelplatform.
Så jag är väldigt missnöjd, det har jag varit under ganska många år.

Fast är det inte väldigt mycket att bara se till sitt eget behov och helt ignorera att GPU-företagen har en bredare publik att tänka på?

Både Intel och AMD har testat att separera sin GPU-marknad i datacenter resp. konsument m.a.p. kretsdesign. Båda drog slutsatsen att det inte är en den bästa lösningen just nu, primärt då GPUer kräver enorma investeringar i programvara och det blir en ökad kostnad om man behöver utveckla flera versioner av den programvaran. Nvidia (och Apple sedan de började designa GPUer) har båda använt samma kretsdesign för hela stacken (från Tegra SoC till datacenter för Nvidia, från mobiler till MacStudio för Apple).

Om vi ignorerar att folk faktiskt verkar kunna köra spel som nya Indian Jones (som kräver RT) ända ned till RTX2070, så kvarstår att sagda 2070 definitivt går att använda till saker som 3D-rendering och i Blender presterar ett 2070 ca 3,7 gånger snabbare jämfört med 1070 Ti (som har marginellt fler CUDA-kärnor). Så för sådana use-case är det extremt god utdelning på använd kretsytan (sådan ökning är inte unik för Nvidia, instegs GPUn med 10 GPU-kärnor såg i samma test en x2,6 ökning i Apples fall M2->M3).

Och om man ändå bara fokuserar på spel: är det verkligen så stor andel av kretsen som går till RT-kärnor?

I High-yields analys av 5090 nämner han att CUDA/RT-kärnor/tensor-kärnor står för ca 44 % av kretsytan.
https://youtu.be/rCwgAGG2sZQ

Fanns en del idéer om att RT-kärnorna skulle vara ~1/3 av den ytan, men det känns orimligt högt och än mer orimligt idag jämfört med 2000-serien givet att fokus varit betydligt mer på tensor-kärnorna. Att sedan tensor+rt-kärnorna i sig är mer >50 % känns också rätt osannolikt.

Så en "pessimistisk" gissning är att RT-kärnorna på Nvidia GPUerna står för 10 % av transistorbudet. Men du använder en AMD GPU och där lär det vara en klart mindre andel givet att de inte har dedicerade RT-kärnor utan man lade till lite funktioner till texturenheterna istället.

Självklart har RT-stödet så här långt primärt designats så de i praktiken bara passat high-end. Men dels är RT-stödet mer en tech-demo man slängt in i efterhand och dels har det gjorts rätt mycket som en utökning av de högsta grafiklägena.

När spelmotorer designas från grunden till att använda ray tracing för ljus kommer det både bli effektivare (har också blivit effektivare genom förändringar i DX12!!) och det kommer också bli "vettiga" nivåer för instegskorten på low/medium som är typiskt tänkta för dessa.

Skrivet av Alexraptor:

Ja, man skulle faktiskt kunna kalla det för en regression snarare än en evolution av grafikkort.

Det är lite som att gå tillbaka till gamla tiders pixel shaders och individuella pixel/vertex pipelines i hårdvaran. Hela grejen med övergången till så kallad Unified Shaders, handlade ju om att kunna utnyttja grafikkretsen optimalt, så att man inte har en massa kisel som bara sitter och rullar tummarna tidvist, utan kan istället allokeras dit behovet finns.

Fast även med unifined shaders använder man ju typiskt bara en delmängd av kretsen. Vertex-shaders kommer inte använda rastrering och använder sällan samples (även om det går). Är bara om man använder man tesselation shaders man kommer använda tesselation control shader (används för att generera nya vertices + räkna om barycentriska koordinater för den nya uppsättning trianglar man fick, detta då är input till fragment shaders).

GPUer är ändå hyfsat bra på att kunna anpassa hur de jobbar för att hålla så stor del av kretsen aktiv som möjligt. Den håller många samtida shaders igång samtidigt, rimligen finns heuristik som m.h.a. statistik på hur olika shader-steg burkar lasta de olika delarna kan man hålla en bra mix aktiv.

Lite svårare med ray tracing då en försvårande faktor där är att man rent generellt inte kan veta var en viss stråle tar vägen och vilken shader den kommer behöva köra är en funktion av materialet på den yta som träffas...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Fast även med unifined shaders använder man ju typiskt bara en delmängd av kretsen. Vertex-shaders kommer inte använda rastrering och använder sällan samples (även om det går). Är bara om man använder man tesselation shaders man kommer använda tesselation control shader (används för att generera nya vertices + räkna om barycentriska koordinater för den nya uppsättning trianglar man fick, detta då är input till fragment shaders).

GPUer är ändå hyfsat bra på att kunna anpassa hur de jobbar för att hålla så stor del av kretsen aktiv som möjligt. Den håller många samtida shaders igång samtidigt, rimligen finns heuristik som m.h.a. statistik på hur olika shader-steg burkar lasta de olika delarna kan man hålla en bra mix aktiv.

Lite svårare med ray tracing då en försvårande faktor där är att man rent generellt inte kan veta var en viss stråle tar vägen och vilken shader den kommer behöva köra är en funktion av materialet på den yta som träffas...

Hela poängen med unified shaders är att det inte existerar Vertex-shaders och Tesselation shaders på hårdvarunivå. Hårdvaran är konstruerad så att varje shader-kärna är programmerbar och kan användas till valfri process inom render-pipelinen.

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | DELL P991 Trinitron | Windows XP/10 Dual-Boot |

Permalänk
Datavetare
Skrivet av Alexraptor:

Hela poängen med unified shaders är att det inte existerar Vertex-shaders och Tesselation shaders på hårdvarunivå. Hårdvaran är konstruerad så att varje shader-kärna är programmerbar och kan användas till valfri process inom render-pipelinen.

Det är en uppenbar optimering som alla GPU-tillverkare gjort, men det är inget krav och faktum är att AMD, Intel och Nvidia hade initialt kvar en HW-split i vertex/fragment-shader i deras första generation GPUer med stöd för unified shaders.

Den viktiga separationen var att man logiskt sett kunde göra samma saker (villkor, loopar etc) avsett shader typ med unified shaders. Tidigare var det vissa saker som inte alls gick att göra i pixel-shaders.

Men än idag finns ju separata HW-block som bara är vettiga i specifika shader-steg. Mesh-shaders gör det ännu lite mer "unified" än innan, men även med de finns fundamentala skillnader mellan det innan fragment-shaders och fragment-shaders (som är det enda steget som använder ROPs, vilka stör för en liten men inte försumbar del av kretsytan).

Och som nämnt ovan: sättet AMD implementerat ray tracing så här långt har rimligen gett rätt litet avtryck på kiselarean då man till stor del använder textur-enheterna (som normalt inte annars används vid ray-intersection). Fungera OK i spel, men sett till ren 3D-rendering med GPGPU så har Radeon-GPUerna så här lågt fått mindre lyft än Nvidia/Apple/Intel som alla har dedicerade RT-kärnor.

Vi lär få se dedicerade RT-kärnor även för Radeon nästa generation med introduktionen av UDMA.

Och vill man gnälla på RT-kärnorna borde tensor-kärnorna kanske vara prio #1. Lär vara där vi kommer se största ökningen i kisel framåt (ihop med cache som av lite olika skäl är något som tar allt större andel av kretsytan).

Fast å andra sidan är kombon tensor-kärnor och RT-kärnor det som kommer göra ray tracing fullt rimligt som enda ljussättningsteknik relativt snart.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam
Skrivet av Yoshman:

Fast är det inte väldigt mycket att bara se till sitt eget behov och helt ignorera att GPU-företagen har en bredare publik att tänka på?

Både Intel och AMD har testat att separera sin GPU-marknad i datacenter resp. konsument m.a.p. kretsdesign. Båda drog slutsatsen att det inte är en den bästa lösningen just nu, primärt då GPUer kräver enorma investeringar i programvara och det blir en ökad kostnad om man behöver utveckla flera versioner av den programvaran. Nvidia (och Apple sedan de började designa GPUer) har båda använt samma kretsdesign för hela stacken (från Tegra SoC till datacenter för Nvidia, från mobiler till MacStudio för Apple).

Om vi ignorerar att folk faktiskt verkar kunna köra spel som nya Indian Jones (som kräver RT) ända ned till RTX2070, så kvarstår att sagda 2070 definitivt går att använda till saker som 3D-rendering och i Blender presterar ett 2070 ca 3,7 gånger snabbare jämfört med 1070 Ti (som har marginellt fler CUDA-kärnor). Så för sådana use-case är det extremt god utdelning på använd kretsytan (sådan ökning är inte unik för Nvidia, instegs GPUn med 10 GPU-kärnor såg i samma test en x2,6 ökning i Apples fall M2->M3).

Och om man ändå bara fokuserar på spel: är det verkligen så stor andel av kretsen som går till RT-kärnor?

I High-yields analys av 5090 nämner han att CUDA/RT-kärnor/tensor-kärnor står för ca 44 % av kretsytan.
https://youtu.be/rCwgAGG2sZQ

Fanns en del idéer om att RT-kärnorna skulle vara ~1/3 av den ytan, men det känns orimligt högt och än mer orimligt idag jämfört med 2000-serien givet att fokus varit betydligt mer på tensor-kärnorna. Att sedan tensor+rt-kärnorna i sig är mer >50 % känns också rätt osannolikt.

Så en "pessimistisk" gissning är att RT-kärnorna på Nvidia GPUerna står för 10 % av transistorbudet. Men du använder en AMD GPU och där lär det vara en klart mindre andel givet att de inte har dedicerade RT-kärnor utan man lade till lite funktioner till texturenheterna istället.

Självklart har RT-stödet så här långt primärt designats så de i praktiken bara passat high-end. Men dels är RT-stödet mer en tech-demo man slängt in i efterhand och dels har det gjorts rätt mycket som en utökning av de högsta grafiklägena.

När spelmotorer designas från grunden till att använda ray tracing för ljus kommer det både bli effektivare (har också blivit effektivare genom förändringar i DX12!!) och det kommer också bli "vettiga" nivåer för instegskorten på low/medium som är typiskt tänkta för dessa.

Fast även med unifined shaders använder man ju typiskt bara en delmängd av kretsen. Vertex-shaders kommer inte använda rastrering och använder sällan samples (även om det går). Är bara om man använder man tesselation shaders man kommer använda tesselation control shader (används för att generera nya vertices + räkna om barycentriska koordinater för den nya uppsättning trianglar man fick, detta då är input till fragment shaders).

GPUer är ändå hyfsat bra på att kunna anpassa hur de jobbar för att hålla så stor del av kretsen aktiv som möjligt. Den håller många samtida shaders igång samtidigt, rimligen finns heuristik som m.h.a. statistik på hur olika shader-steg burkar lasta de olika delarna kan man hålla en bra mix aktiv.

Lite svårare med ray tracing då en försvårande faktor där är att man rent generellt inte kan veta var en viss stråle tar vägen och vilken shader den kommer behöva köra är en funktion av materialet på den yta som träffas...

Lång text; du är onekligen väl insatt och kan dina saker, men det ändrar inte faktum, sedan RT kom har grafikkort blivit skitdyra.
PC spelandet håller långsamt på att dö ut, det var mycket högre aktivitet här på Sweclockers för ett par år sedan, många anrika testsajter och datorsajter har gått i graven eller lever på sparlåga.

Att det är intressant för tillverkare att göra något som klarar både grafik AI och beräkning är inte konstigt, men för oss konsumenter är det ointressant, vi vill ha ett bra grafikkort och något som är bra på lite av varje är sällan väldigt bra på en sak.
Jag vill ha ett bra grafikkort inget annat.

RT imponerade inte när det kom, gör det fortfarande inte och vi har ganska länge nu fått höra hur fantastiskt det snart kommer bli, tillåt mig att tvivla på att det snart kommer att leverera.

Satsningen på AI har onekligen varit lyckad för Nvidia företaget går som en raket, mindre trevligt är att de försöker få spelutvecklare att tillämpa RT med tvivelaktigt resultat.
Jag är övertygad att vi kunnat få andra tekniker som fungerat bättre om denna satsning inte skett.
Vi ser också hur gamla beprövade tekniker överges, verkar som att RT snart kommer att vara ett krav för många av de senaste spelen.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem
Skrivet av Ratatosk:

Lång text; du är onekligen väl insatt och kan dina saker, men det ändrar inte faktum, sedan RT kom har grafikkort blivit skitdyra.
PC spelandet håller långsamt på att dö ut, det var mycket högre aktivitet här på Sweclockers för ett par år sedan, många anrika testsajter och datorsajter har gått i graven eller lever på sparlåga.

Skilj på orsak och verkan.

Grafikkort (och många andra komponenter och saker) har blivit dyrare av flera olika anledningar.

Att SweC och webbforum dör har inget med RT att göra. Det har med att (a)sociala media som forum på Facebook tar över. Det är en generell trend (tyvärr) i samhället.

Visa signatur

macOS: Mac mini [M4 Pro 14-core/24GB/1TB/10GbE], MacBook Air 13" [M1/16GB/256GB], MacBook Pro 16" [M2/32GB/512GB]
Windows: Microsoft Surface Pro 11 [Snapdragon X Elite/16GB/1TB/OLED], Microsoft Surface Laptop 7 13" [Snapdragon X Plus/16GB/512GB], HP Omnibook X 14" [Snapdragon X Elite/16GB/1TB], HP OmniBook Ultra 14" [Ryzen AI 9 HX 375/32GB/1TB]
iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 10 46mm [LTE]
HT: LG 77" OLED C2 [OLED77C25LB], Intel NUC [Core i5/8GB/256GB]

Permalänk
Datavetare
Skrivet av Ratatosk:

Lång text; du är onekligen väl insatt och kan dina saker, men det ändrar inte faktum, sedan RT kom har grafikkort blivit skitdyra.
PC spelandet håller långsamt på att dö ut, det var mycket högre aktivitet här på Sweclockers för ett par år sedan, många anrika testsajter och datorsajter har gått i graven eller lever på sparlåga.

Att det är intressant för tillverkare att göra något som klarar både grafik AI och beräkning är inte konstigt, men för oss konsumenter är det ointressant, vi vill ha ett bra grafikkort och något som är bra på lite av varje är sällan väldigt bra på en sak.
Jag vill ha ett bra grafikkort inget annat.

RT imponerade inte när det kom, gör det fortfarande inte och vi har ganska länge nu fått höra hur fantastiskt det snart kommer bli, tillåt mig att tvivla på att det snart kommer att leverera.

Satsningen på AI har onekligen varit lyckad för Nvidia företaget går som en raket, mindre trevligt är att de försöker få spelutvecklare att tillämpa RT med tvivelaktigt resultat.
Jag är övertygad att vi kunnat få andra tekniker som fungerat bättre om denna satsning inte skett.
Vi ser också hur gamla beprövade tekniker överges, verkar som att RT snart kommer att vara ett krav för många av de senaste spelen.

Införandet av RT är inte förklaringen till prisstegringen. Tänk på att "wafer-cost" för X mm² kisel har ökat med 3-4 gånger på 10 år, d.v.s. från när Maxwell var aktuell till idag!

Även priset på moderkort och CPUer (om man jämför modeller med likvärdig kretsyta) har tyvärr sett rejäla prisökningar över en 10 års period. Kretskostnaden för high-end SoC för mobiler har gått från 50-60 USD till 150-200 USD under den tiden, det trots att kretsytan är rätt likvärdig över tid.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam
Skrivet av Yoshman:

Införandet av RT är inte förklaringen till prisstegringen. Tänk på att "wafer-cost" för X mm² kisel har ökat med 3-4 gånger på 10 år, d.v.s. från när Maxwell var aktuell till idag!

Även priset på moderkort och CPUer (om man jämför modeller med likvärdig kretsyta) har tyvärr sett rejäla prisökningar över en 10 års period. Kretskostnaden för high-end SoC för mobiler har gått från 50-60 USD till 150-200 USD under den tiden, det trots att kretsytan är rätt likvärdig över tid.

Jag tar delvis tillbaka vad jag skrev, jag ser nog kryptobrytning som den stora boven.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |