Geforce GTX 980 Ti tittar fram på bild

Permalänk
Medlem

Här har de uppenbarligen tillverkat nya kylare som det står "980 Ti" på.
Varför gjorde de inte samma med Titan X? Känns billigt tycker jag.

Permalänk
Medlem
Skrivet av TheCouchNerd:

Ed ifrån Sapphire gick in lite mer angående DX12 och hur Mantle (Nu Vulcan) fungerar. Han sa att vid Crossfire (han kan bara yttra sig om AMD) så kommer korten kunna välja vilken del den ska rendra. Ena kortet kan rendra foreground bilden och andra background. Eller ena kanske rendrar vissa modeller och andra annat. Detta är något "spelutvecklarna" måste koda. Så förmodligen lär vi se spel i framtiden där i SLI/Crossfire kommer du kunna fulla eller nära intil fulla minnesmängden.

Majoriteten av data som tar upp minne är textures och geometri. Om ett spel använder 6GB på en SLI/CF med 2x4GB kommer GPU som rendrerar förgrunden att behöva läsa minne från båda korten och allt som ligger på det andra kommer gå extremt långsamt.

För att inte tala om att GPU som rendrerar förgrund kommer vara betydligt mer belbelastad.

Permalänk
Avstängd
Skrivet av Stoff3th3m4n:

Du läser inte igenom inlägg ordentligt innan du kommenterar dem va? Jag har ingenstans sagt att specifikt Nvidia's kunder inte har några krav. Däremot har jag sagt att kunder i allmänhet har taskiga krav när man inte ens kan vänta på fullständiga specs eller test innan man skriker "köp!". Detta gäller inte enbart potentiella kunder till GTX 980ti utan är ett utbrett problem i många olika segment.

Men uppenbarligen råkade jag trampa på den känsla fanboy-tån.

Detsamma gäller för AMD's kunder, ser folk som skriker att de ska köpa AMD's 300-serie innan de ens vet något om det.
Jag är inte fanboy över huvud taget, men så som du klankar ner på nvidia så kan man ju undra hur det står till själv på den fronten, det jag pekade på när det gäller brister hos AMD är i alla fall fakta, de brister du pekar på är din egen spekulation.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Medlem
Skrivet av tvelander:

Då har du "tur" eller jag vet inte men väldigt ofta man stöter på små saker.

Det är bara för att du kör SLi som det blir ostabilt Tvelander

Visa signatur

NZXT H5 Flow Starfield Limited Edition Chassi // AMD Ryzen 7950X // Gigabyte RX 9070 XT Elite // Corsair 6000Mhz 64GB// Gigabyte X870-I // Corsair HX1500I 1500W // Crutical T705 1TB Nvme SSD // Samsung 980 PRO 2TB Nvme SSD // Samsung 980 PRO 2TB Nvme SSD //Samsung 850 EVO 1TB SSD //Samsung Odyssey Neo G9 // Bazzite Gnome OS

Permalänk
Medlem

@Imaculent:

Kan man ju tycka, men jag tycker exempelvis det ser bättre ut när det bara står Titan, vilket uppenbarligen Nvidia också gjorde. Blir förmodligen inte några mer kort med just det namnet med tanke på val av bokstäver.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av Rajat:

Detsamma gäller för AMD's kunder, ser folk som skriker att de ska köpa AMD's 300-serie innan de ens vet något om det.
Jag är inte fanboy över huvud taget, men så som du klankar ner på nvidia så kan man ju undra hur det står till själv på den fronten, det jag pekade på när det gäller brister hos AMD är i alla fall fakta, de brister du pekar på är din egen spekulation.

Nu klankade han ju inte ned på nvidia över huvud taget utan konstaterade bara att utefter uttalanden i just denna tråden som råkar handla om en specifik modell från nvidia, är det lite oroväckande att folk tar ett köpbeslut som uppenbarligen inte grundas på mer än spekulationer, hade tråden handlat om ett kort från amd och folk hade gjort likadan (vilket jag är övertygad om att dom hade) så kan man ju ha liknande synpunkter på det i den tråden

Skickades från m.sweclockers.com

Visa signatur

NZXT H440 - MSI Z97 Gaming 5 - Intel core i5-4690K - Noctua NH-D15 - 2x Gigabyte r9 280x Windforce 3X - Corsair XMS3 DDR3 4x2GB - Corsair TX850M - Samsung evo 840 1TB - 4x Seagate Constellation ES 2TB
HTC Legend> LG Optimus 2x> Nokia Lumia 800> HTC One X > HTC one > LG G2 > Motorola Nexus 6 > Samsung galaxy S7
Surface pro 3 i3 64GB
Hellre att det aldrig fungerar än att man öppnar instruktionsboken!

Permalänk
Medlem
Skrivet av Rajat:

Detsamma gäller för AMD's kunder, ser folk som skriker att de ska köpa AMD's 300-serie innan de ens vet något om det.
Jag är inte fanboy över huvud taget, men så som du klankar ner på nvidia så kan man ju undra hur det står till själv på den fronten, det jag pekade på när det gäller brister hos AMD är i alla fall fakta, de brister du pekar på är din egen spekulation.

Men kan du ge dig? Jag har inte pekat ut Nvidia överhuvudtaget. Om du kan få för dig att läsa ordentligt så ser du att jag säger att folk i allmänhet inte ställer några som helst krav innan de skriker "köp".

Ta nu i lugn och ro och läs ordentligt innan du skriver vidare och gör bort dig mer här.

Ganska kul att du tillskriver dina egna påståenden statusen "fakta" också men mina för spekulationer. Fakta som styrker min "spelulation" finns i den här tråden. Var finns dina källor för att bevisa din "fakta"?

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Avstängd
Skrivet av Jockew1989:

Nu klankade han ju inte ned på nvidia över huvud taget utan konstaterade bara att utefter uttalanden i just denna tråden som råkar handla om en specifik modell från nvidia, är det lite oroväckande att folk tar ett köpbeslut som uppenbarligen inte grundas på mer än spekulationer, hade tråden handlat om ett kort från amd och folk hade gjort likadan (vilket jag är övertygad om att dom hade) så kan man ju ha liknande synpunkter på det i den tråden

Skickades från m.sweclockers.com

Tänker man till lite så förstår jag inte ens varför han ens tror att ett 980Ti skulle vara gimpat som 970, i så fall skulle 980 också ha varit det och bara för att de gjort så på ett kort så betyder inte det ett dugg, det var inte ens ett problem på 970, folk gjorde det bara till ett problem som inte existerade.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Master of Overkill
Skrivet av Sifear:

Det är bara för att du kör SLi som det blir ostabilt Tvelander

Spelar ingen roll om det är SLI eller inte.

Visa signatur

CASE CaseLabs SMA8-A + CaseLabs Nova X2M CPU 9900k @5.3GHz (No AVX) 7950X3D @5.7GHz GPUs RTX 3090 FE + RTX 3080 FE RAM 2x32GB Corsair Dominator Platinum 3533MHz CL13 + 2x32GB 6000MHz CL30 Dominator Titanium PSU EVGA T2 1600W + Corsair SFF 750W SSD Corsair Force MP700 Pro M.2 NVMe 2.0 Gen 5 2TB, 2x Samsung 990 Pro 2TB M.2 Headphones Audeze Maxwell + Audeze LCD-2 + Moon Cable DAC/AMP Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard ASUS ROG Crosshair X670E Hero + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk

@philipborg: Var nog så, ville bara tillägga att 280x (280) är redigt gamla. Till och med så gamla som slutet av 2011.

Visa signatur

Stuff

Permalänk
Medlem
Skrivet av elajt_1:

@Imaculent:

Kan man ju tycka, men jag tycker exempelvis det ser bättre ut när det bara står Titan, vilket uppenbarligen Nvidia också gjorde. Blir förmodligen inte några mer kort med just det namnet med tanke på val av bokstäver.

Inte så säker på att Nvidia tyckte det såg bättre ut.
Jag tror motiveringen är att det är billigare att ta exakt samma kylare (eller iallafall skal) och bara köra annan ytbehandling. Och för en premiumprodukt tycker jag det är tråkigt och snålt tänk.
Sedan om man tycker det ena eller andra är snyggare är upp till var och en.

Permalänk
Medlem
Skrivet av ReZZiE:

Har själv aldrig överklockat något.

Köpt fabriköverklockat?
Tråkigt nog så verkar en del av dem vara instabila. Så ett felsökningssteg kan vara att klocka ner till Nvidias originalklock för chippet.

Permalänk
Medlem
Skrivet av Viliktotr:

@philipborg: Var nog så, ville bara tillägga att 280x (280) är redigt gamla. Till och med så gamla som slutet av 2011.

Japp. Ändrar däremot inte faktumet att den fortfarande är väldigt kompetent för sin prislapp.

Skickades från m.sweclockers.com

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem
Skrivet av Rajat:

Tänker man till lite så förstår jag inte ens varför han ens tror att ett 980Ti skulle vara gimpat som 970, i så fall skulle 980 också ha varit det och bara för att de gjort så på ett kort så betyder inte det ett dugg, det var inte ens ett problem på 970, folk gjorde det bara till ett problem som inte existerade.

Det har redan spekulerats efter Nvidias senaste uttalande att det är samma lösning. Men den som lever får se, precis som jag skrivit hela tiden.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Hedersmedlem
Skrivet av TheCouchNerd:

Ed ifrån Sapphire gick in lite mer angående DX12 och hur Mantle (Nu Vulcan) fungerar. Han sa att vid Crossfire (han kan bara yttra sig om AMD) så kommer korten kunna välja vilken del den ska rendra. Ena kortet kan rendra foreground bilden och andra background. Eller ena kanske rendrar vissa modeller och andra annat. Detta är något "spelutvecklarna" måste koda. Så förmodligen lär vi se spel i framtiden där i SLI/Crossfire kommer du kunna fulla eller nära intil fulla minnesmängden.

Det där med att man ska kunna lägga ihop minnet är en långt överambitiös förhoppning.
Grafikrendering delas inte direkt in i förgrunds/bakgrundsrendering utan grafikkorten kommer väl snarare använda någon form av split frame rendering. Bilden delas upp i mindre segment som renderas en del i taget. Ungefär som när man ser en cinebech-körning.
Man varje grafikkort behöver fortfarande behöva ha samma texturer och polygonstrukturer i sitt eget arbetsminne för att kunna jobba med renderingen om det ska gå fort.
Det är nämligen så enkelt att bandbredden och överföringshastigheten är på tok för klen mellan grafikkorten så skulle man behöva hämta texturer från ena grafikkortets minne till det andra grafikkortets beräkningsenhet så skulle man få ett jätteslött system. Det problemet kan inte en directXversion lösa.

Vinsten ligger i att båda grafikkorten inte behöver ha precis identiskt speglat minne. Men i praktiken kommer i stora drag samma texturer ligga på båda grafikkortsminnena samtidigt ändå.
Man kommer kanske få ut 10-30% mer minne. Kanske mindre, kanske till och med ännu mer. Men dubbelt minne har jag inte set några rimliga källor på än så länge.

Visa signatur

💻 → Lenovo Yoga slim 7 pro 14" Oled
🎮 → Steamdeck

Permalänk
Medlem
Skrivet av Imaculent:

Inte så säker på att Nvidia tyckte det såg bättre ut.
Jag tror motiveringen är att det är billigare att ta exakt samma kylare (eller iallafall skal) och bara köra annan ytbehandling. Och för en premiumprodukt tycker jag det är tråkigt och snålt tänk.
Sedan om man tycker det ena eller andra är snyggare är upp till var och en.

Faktum är att vare sig du eller jag vet hur det ligger till. Jag uttryckte bara att jag tycker det är snyggare utan.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem

Då kanske man kan hoppas på nedsänkt pris av 980 korten. Men det är nog bara önsketänk, misstänker att det aldrig lär hända.

Permalänk
Medlem
Skrivet av Rajat:

Detsamma gäller för AMD's kunder, ser folk som skriker att de ska köpa AMD's 300-serie innan de ens vet något om det.
Jag är inte fanboy över huvud taget, men så som du klankar ner på nvidia så kan man ju undra hur det står till själv på den fronten, det jag pekade på när det gäller brister hos AMD är i alla fall fakta, de brister du pekar på är din egen spekulation.

Hehe, du tillskiver AMD egenskaper baserat endast på senaste generationens top-gpu med ref.kylare samt det unkna drirutinskäbblet och säger att det är fakta... Jo tjena fact man
Angående minneskonfigurationen är det ju en relevant fråga då de har inaktiverat kluster.. Iom att 970 hade det som oundviklig design"feature" så är det något iaf jag skulle vilja veta innan köp

Skickades från m.sweclockers.com

Visa signatur

Define R3 | Asrock P67 PRO3 Rev B3 | I5 2500K@4,5GHz | Xigmatek Gaia | Corsair Vengeance LP 8GB 1866MHz | EVGA GTX 970 SSC | XFX core edt. 550W| Intel 320 120GB, Crucial MX100 256GB, WD caviar black 750GB

Permalänk
Medlem
Skrivet av Tobbbe__:

Det som står i videocardz artikel att det 980TI ska få 6GB Vram.
Kortet har 12 monterade moduler, det syns på PCBn's baksida. Då borde det i så fall vara 0.5GB - 7000 MHz moduler.
Samma som används på tex 980 och 970.

Med tanke på den nästintill identiska designen och det faktum att Nvidia monterat moduler på samtliga platser så ser jag det som högst troligt att kortet får 6GB också.

GM200 har 24 smm kluster med cudacores varav 128st i varje.
Titan X har 3072 och 980Ti 2816. Det betyder att 2 kluster kommer vara avstängda.

Beroende på om kretsarna i fråga som kommer användas i 980TI också har skadad L2 cashe så kommer kortet ha samma problem som 970. Om endast SMM klustren är skadade och avstängda så kommer kortet inte ha problem med bandbredd till Vramen.
Det är så jag förstår designen på Maxwell.

Så det stora frågan är alltså inte mängden SMM aktiverade. Utan om chippet har samtliga L2 cashe delar aktiverade?

För er som ännu inte förstått
https://youtu.be/b74MYv8ldXc?t=3m12s

Sedan så kallas gpun i fråga GM200-310 medans den på Titan X GM200-400. Vad det betyder får vi snart reda på.

GTX TITAN X (GM200)
http://images.anandtech.com/doci/9059/TITAN_X_Block_Diagram_FINAL.png

GTX 980 (GM204)
http://cdn2.wccftech.com/wp-content/uploads/2014/09/NVIDIA-GM204-GPU.png

GTX 970 (GM204) med skadat L2 Cashe
http://www.techpowerup.com/img/15-01-27/140a.jpg

Då behöver jag inte känna mig bitter för att jag köpt mig dubbla Titan X då. Tack Tobbe!

Visa signatur

GPU EVGA GTX Titan X SLI Moderkort ASUS X99 Deluxe CPU 5930K
Minne Ballistic Sport 32GB 2500 Nätagg Corsair RM 1000i Chassi Cooler Master Cosmos II Kylning: Noctua NHD15 (Noctua PPC A14)

Permalänk
Avstängd

De flesta lär nog avstå om de förstör 980Ti precis som de gjorde med 970. Blir inte ett dugg förvånad om Nvidia gör samma sak nu igen och de kommer säkert inte säga något heller.

Skickades från m.sweclockers.com

Permalänk
Medlem

Håller tummarna att AMD piskar Nvidia på fingrarna så vi får se lite prissänkningar. Hade varit fint och se Titan x ligga under 10k iallafall, då blire köp direkt.

Permalänk
Avstängd
Skrivet av Stoff3th3m4n:

Det har redan spekulerats efter Nvidias senaste uttalande att det är samma lösning. Men den som lever får se, precis som jag skrivit hela tiden.

Nyckelord som inte betyder ett dugg.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Avstängd
Skrivet av Heinel:

Hehe, du tillskiver AMD egenskaper baserat endast på senaste generationens top-gpu med ref.kylare samt det unkna drirutinskäbblet och säger att det är fakta... Jo tjena fact man
Angående minneskonfigurationen är det ju en relevant fråga då de har inaktiverat kluster.. Iom att 970 hade det som oundviklig design"feature" så är det något iaf jag skulle vilja veta innan köp

Skickades från m.sweclockers.com

Precis på samma sätt som Stoff3th3m4n baserar det han säger på vad nvidia gjorde med 970 med enda skillnad att det inte utgjorde ett problem.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Medlem
Skrivet av Svetsern:

Då behöver jag inte känna mig bitter för att jag köpt mig dubbla Titan X då. Tack Tobbe!

Det ska du absolut inte!

Visa signatur

GPU 2080Ti Moderkort ROG Crosshair VIII Formula x570
CPU 5900x Minne Corsair 32GB 3600Mhz Nätagg Corsair AX 1200i
Chassi Lian-Li PC-O7S
Skärm C49RG9x 120Hz Hårddisk Corsair MP600 Kylning husradiator, EK Blocks

Permalänk
Medlem

Väldigt bra poäng som många inte tänker på

Väldigt bra poäng som många inte tänker på! Har läst mer ingående på Pcper.com angående 970 och hur maxwell fungerar.
Ser verkligen inget negativt med Maxwell's möjlighet att stänga av enskilda komponeter på gpun och designen av 970's GM204 gpu.

När Nvidia's marknads avdelning säger att det är en "feature" så stämmer det verkligen. Precis som pcper skriver i sin artikel. Hade det varit Kepler eller AMD's respektive arkitektur så hade hela blocket stängts av vilket hade resulterat i en 192bit bus med 3GB vram istället för nuvarande 256bit. 3.5/0.5GB = MER PRESTANDA

Maxwells förmåga att fortsatt nyttja varje enskild del är otroligt bra. Det höjer den potentiella yeilden väldigt mycket! Betydligt fler gpuer än tidigare går att använda och det går dessutom att ta mer prestanda ur varje deffekt gpu.

Detta tar givetvis inte bort faktumet att informationen uteblev och att specifikationerna var fel. Men försök att fokusera på poängen med mitt inlägg.

Källa
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-...

Citerar Pcper
The configurability of the Maxwell architecture allowed NVIDIA to make this choice. Had the GeForce GTX 970 been built on the Kepler architecture, the company would have had to disable the entire L2/MC block on the right hand side, resulting in a 192-bit memory bus and a 3GB frame buffer. GM204 allows NVIDIA to expand that to a 256-bit 3.5GB/0.5GB memory configuration and offers performance advantages, obviously.

Visa signatur

GPU 2080Ti Moderkort ROG Crosshair VIII Formula x570
CPU 5900x Minne Corsair 32GB 3600Mhz Nätagg Corsair AX 1200i
Chassi Lian-Li PC-O7S
Skärm C49RG9x 120Hz Hårddisk Corsair MP600 Kylning husradiator, EK Blocks

Permalänk
Medlem
Skrivet av Rajat:

Nyckelord som inte betyder ett dugg.

Snarare högst relevant då folk redan spekulerar om det här i tråden, vilket betyder att en del faktiskt vill veta sådant innan de skriker "köp!".

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Medlem
Skrivet av Rajat:

Precis på samma sätt som Stoff3th3m4n baserar det han säger på vad nvidia gjorde med 970 med enda skillnad att det inte utgjorde ett problem.

Det har redan utgjort problem för folk som upplevt stuttering när den långsamma delen av minnet också får jobba. Är det ett problem för alla, nope.. men uppenbarligen för en del. Precis som att AMD's 290X med referenskylare utgjorde ett problem för många då kortet inte fick tillräcklig kylning.

Så ta nu och bandagera den där fanboy-tån, ta det lugnt och ha en riktigt bra kväll.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Medlem
Skrivet av Tobbbe__:

Väldigt bra poäng som många inte tänker på! Har läst mer ingående på Pcper.com angående 970 och hur maxwell fungerar.
Ser verkligen inget negativt med Maxwell's möjlighet att stänga av enskilda komponeter på gpun och designen av 970's GM204 gpu.

När Nvidia's marknads avdelning säger att det är en "feature" så stämmer det verkligen. Precis som pcper skriver i sin artikel. Hade det varit Kepler eller AMD's respektive arkitektur så hade hela blocket stängts av vilket hade resulterat i en 192bit bus med 3GB vram istället för nuvarande 256bit. 3.5/0.5GB = MER PRESTANDA

Maxwells förmåga att fortsatt nyttja varje enskild del är otroligt bra. Det höjer den potentiella yeilden väldigt mycket! Betydligt fler gpuer än tidigare går att använda och det går dessutom att ta mer prestanda ur varje deffekt gpu.

Detta tar givetvis inte bort faktumet att informationen uteblev och att specifikationerna var fel. Men försök att fokusera på poängen med mitt inlägg.

Källa
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-...

Citerar Pcper
The configurability of the Maxwell architecture allowed NVIDIA to make this choice. Had the GeForce GTX 970 been built on the Kepler architecture, the company would have had to disable the entire L2/MC block on the right hand side, resulting in a 192-bit memory bus and a 3GB frame buffer. GM204 allows NVIDIA to expand that to a 256-bit 3.5GB/0.5GB memory configuration and offers performance advantages, obviously.

Nja, det var ju ett medvetet designval man gjorde här som säkert hade kunnat se ut på nåt annat vis om man velat. Tycker inte liknelsen med kepler är helt relevant och tror att en lösning med 3GB minne hade varit bättre då man slipper stuttering-problemet som många upplevt.

Går att jämföra med äldre generationer varje gång man hittar en mindre bra lösning genom att säga att en liknande lösning hade blivit ännu sämre på förra generationen eller liknande. Andra tillverkare inklusive Nvidia själva har ju lyckas göra kort utan en liten andel långsamt minne som för med sig problem förr, men här kan man använda fler chip vilket i sig med denna lösningen bara är bra för företaget men inte direkt för kunderna.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Medlem
Skrivet av Stoff3th3m4n:

Nja, det var ju ett medvetet designval man gjorde här som säkert hade kunnat se ut på nåt annat vis om man velat. Tycker inte liknelsen med kepler är helt relevant och tror att en lösning med 3GB minne hade varit bättre då man slipper stuttering-problemet som många upplevt.

Går att jämföra med äldre generationer varje gång man hittar en mindre bra lösning genom att säga att en liknande lösning hade blivit ännu sämre på förra generationen eller liknande. Andra tillverkare inklusive Nvidia själva har ju lyckas göra kort utan en liten andel långsamt minne som för med sig problem förr, men här kan man använda fler chip vilket i sig med denna lösningen bara är bra för företaget men inte direkt för kunderna.

Hade domt stängt hela delen hade korten inte haft 3.5+0.5 utan 3. och 3.5 är bättre än fortfarande bättre än 3GB.
Sedan hade bandbredden generellt minskat rätt markant. 970 med den lösningen du föredrar hade inte presterat lika bra troligen sämre än 290 i dem flesta högre upplösningar.

Visa signatur

GPU 2080Ti Moderkort ROG Crosshair VIII Formula x570
CPU 5900x Minne Corsair 32GB 3600Mhz Nätagg Corsair AX 1200i
Chassi Lian-Li PC-O7S
Skärm C49RG9x 120Hz Hårddisk Corsair MP600 Kylning husradiator, EK Blocks

Permalänk
Medlem
Skrivet av Tobbbe__:

Hade domt stängt hela delen hade korten inte haft 3.5+0.5 utan 3. och 3.5 är bättre än fortfarande bättre än 3GB.
Sedan hade bandbredden generellt minskat rätt markant. 970 med den lösningen du föredrar hade inte presterat lika bra troligen sämre än 290 i dem flesta högre upplösningar.

Med gällande design ja, men jag påstår ju att de har gjort ett designfel här som bara gynnar dem och inte kunderna så som de försöker få det att låta som.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti