Nvidia Geforce GTX 1060 med 3 GB GDDR5 får färre CUDA-kärnor

Permalänk
Inaktiv
Skrivet av GilbertG:

G92-varianten hette 8800 GT. Sades att den egentligen var tänkt att heta 9800 GT, då G92 skulle höra till 9000-serien, men Nvidia blandade för att möta konkurrens från AMD.

RX 470 eller 480?

Men de köps likväl

Nja, Fanns både 8800 GT och 8800 GTS med G92. Jag hade en GTS med 512MB VRAM på den tiden.

Permalänk
Medlem
Skrivet av SolidReactor:

Fredag, semestertider, tester på gång och en fredagspanel kan kanske förklara det?

ClintBeastwood jobbar 25 timmar om dygnet 8 dagar i veckan och förväntar sig detsamma av alla andra.

Permalänk
Medlem
Skrivet av DevilsDad:

@JonatanR: Fast högre uppdateringsfrekvens spelar ingen roll för mängden vram. Det som kräver mer v-ram är högre upplösning, högre inställningar (typ AA och texturer etc.), och såklart mer krävande spel.

Skrivet av PalmiNio:

Fast FPS har inget med VRAM att göra?

Skickades från m.sweclockers.com

Nää, vet inte riktigt hur jag skrev faktiskt, lät bra i huvudet vid stunden XD

Visa signatur

Citera för svar!

Detta må inte längre vara min primära dator men står kvar vid TV:n så den får ligga kvar ändå!

MB: Asus Maximus III Gene CPU: I7 860 4ghz HT Kylning: Antec 920 GPU: EVGA 770 2GB RAM: Corsair 12GB 1600mhz XMS3 2x2GB + Vengence HP 2x4GB SSD: Samsung EVO 840 120GB HDD: Samsung 1Tb 7200rpm, Seagate 2TB 7200rpm Chassi: Fractal Design Define Mini

Permalänk
Medlem
Skrivet av Awelon:

Jag har 3GB video minne. När jag kör Warhammer Total War, kommer det upp varning att minnet håller på att ta slut. Så nä, 3GB är för lite i dagens läge. Och ja mitt kort är gammalt så nyare borde klara HÖGRE upplösningar än mitt. Har ett Radeon 280X. Så att lura på folk ett 3GB grafikkort i det prestanda segment som 1060 ligger i tycker jag är rent lurendrejeri. 4GB är på gränsen till för lite. Men vill väl att kortet skall hålla några år med helst om man köper nytt ?

Det går inte att jämföra minnesmängden i 280X med 1060, 1060 har mycket bättre komprimering, så saker som inte riktigt fungerar på ett 280X kommer antagligen fungera bra på ett 1060 med 3GB.

Därmed inte sagt att 3GB är bra, det kan nog bli för trångt för några framtida spel, 4-5GB på ett Nvidia-kort borde nog räcka för 1080-gaming inom överskådlig framtid. Sen är det som vanligt, minnesmängd är en avvägning, för lite och det påverkar kraftigt prestandan negativt, för mycket och man får betala för något man inte använder. Kan OEM-tillverkarna spara några hundralappar så gör de det, framförallt när 3GB räcker till för det mesta.

Visa signatur

kill -s SIGCHLD `pidof Kenny`
bash: Oh my god, they killed Kenny
init: You Bastards

Permalänk
Hjälpsam
Skrivet av Orici:

Ser inga problem med detta, bra med alternativ.

Visst är det bra men alternativen skall vara tydliga.
Nu har varianten med 3 GB 10% färre CUDA-kärnor än den med 6 GB, vilket innebär att den kommer att prestera sämre även i de spel som minnet räcker till.
10% färre kärnor gör iofs max 10% i prestanda, så skillnaden är inte stor men den borde framgå tydligt.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av anon5930:

Nja, Fanns både 8800 GT och 8800 GTS med G92. Jag hade en GTS med 512MB VRAM på den tiden.

Just ja. Det fanns även ett G80-baserat 8800 GTS som kom senare som hade 112 shaderprocessorer istället för tidigare 96

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Moderator
Testpilot
Skrivet av Ratatosk:

Visst är det bra men alternativen skall vara tydliga.
Nu har varianten med 3 GB 10% färre CUDA-kärnor än den med 6 GB, vilket innebär att den kommer att prestera sämre även i de spel som minnet räcker till.
10% färre kärnor gör iofs max 10% i prestanda, så skillnaden är inte stor men den borde framgå tydligt.

Det beror på vad klockfrekvensen landar på. Som vi vet sedan innan så har klockfrekvens större inverkan på prestanda än antalet CUDA-kärnor i det flesta spelen. Så det kan mycket väl vara så att GTX 1060 med 3GB har något högre klockfrekvens för att mitigera förlusten i kärnor. Sen kan det också vara så att man medvetet vill gimpa 3GB-modellen för att passa in i ett lägre segment men jag håller med om att det är något förvirrande. Bättre att kalla det GTX 1050 Ti eller något liknande.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Hjälpsam
Skrivet av Dinoman:

Det beror på vad klockfrekvensen landar på. Som vi vet sedan innan så har klockfrekvens större inverkan på prestanda än antalet CUDA-kärnor i det flesta spelen. Så det kan mycket väl vara så att GTX 1060 med 3GB har något högre klockfrekvens för att mitigera förlusten i kärnor. Sen kan det också vara så att man medvetet vill gimpa 3GB-modellen för att passa in i ett lägre segment men jag håller med om att det är något förvirrande. Bättre att kalla det GTX 1050 Ti eller något liknande.

Enligt artikeln är klockfrekvenserna inte uppskruvade, men en sådan åtgärd skulle ju ganska enkelt ge identisk prestanda, vi får hoppas att så är fallet.
GTX1055, GTS1060, GT1060 eller GTX1060 LE, jag vet inte, men något borde det stå.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Moderator
Testpilot
Skrivet av Ratatosk:

Enligt artikeln är klockfrekvenserna inte uppskruvade, men en sådan åtgärd skulle ju ganska enkelt ge identisk prestanda, vi får hoppas att så är fallet.
GTX1055, GTS1060, GT1060 eller GTX1060 LE, jag vet inte, men något borde det stå.

GTX 1060 3GB G1MP kanske?

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Säkert ett intressant kort, men jag säger som många andra; Det är inte ett GTX 1060, så det borde inte heta GTX 1060.

GTX 1050 Ti eller GTX 1060 LE hade varit betydligt bättre namn.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Hjälpsam
Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

GTX1055
Risken att folk/försäljare/PC hemma typ bara kollar lite snabbt efter vad GTX1060 har för specs och sedan köper/säljer/recenserar, utan att veta om att denna model har 10% mindre kärnor är ju ganska stor.

Permalänk
Medlem
Skrivet av sesese:

Men varför kalla Nvidia inte alla sina kort för 1080. Det här namnet är endast valt för att lura kunder till att tro att de har ett bättre kort än det är.

Saknar Microsofts prestandard index som visade hur snabb datorn var. Perfekt när vi köpte en bärbar dator på Elgiganten för länge sedan.

AMD döper samma krets till en massa olika namn, till och med inom samma generation. Det leder till att kretsen man köper kan vara sämre än man tror. Enda orsaken är för att lura sina kunder, precis som andra företag.

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?

Permalänk
Medlem
Skrivet av ArcticFire:

AMD döper samma krets till en massa olika namn, till och med inom samma generation. Det leder till att kretsen man köper kan vara sämre än man tror. Enda orsaken är för att lura sina kunder, precis som andra företag.

AMD ??? vad får du in AMD när du citerar mig ?

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

AMD ??? vad får du in AMD när du citerar mig ?

Du klagar på att Nvidia döper olika kretsar till samma sak.
Jag visar att AMD gör den motsatta, men lika dåliga saken.

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?

Permalänk
Entusiast
Skrivet av Ozzed:

Med tanke på den förmodat låga prispunkten lär ju efterfrågan vara högre än felfrekvensen som krävs, så i så fall får de ju strypa chip med flit. Det gillar jag inte.

Och vad spelar det för roll? Om folk inte hade köpt det dyrare kortet med mer prestanda hade chippet istället legat på hyllan. Är det bättre menar du? Detta är inget nytt, så här har halvledarprodduktion fungerat i evigheter. Vi vet inte hur många 1070 som egentligen kunde används till 1080 men som säljs i det lägre segmentet. Det är ju verkligen bortkastad energi att vara upprörd över att varenda liten kiselbit kanske kunde varit lite snabbare.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Entusiast
Skrivet av ArcticFire:

AMD döper samma krets till en massa olika namn, till och med inom samma generation. Det leder till att kretsen man köper kan vara sämre än man tror. Enda orsaken är för att lura sina kunder, precis som andra företag.

Fast det gör även Nvidia. Båda har haft hela serier med enbart omdöpta kretsar. Det är dock på inget sätt lika illa då namnen är entydiga. Köper du ett GT 340 eller Radeon 8770 så vet du exakt vilken GPU du får. Om du däremot köpte en dator med ett GT 640 så kan du få GF116, GK107 eller GK208 med en teoretisk prestanda som varierar mellan 414 och 803 GLFOPS. Du vet inte vilket du får och du som kund kan inte kolla det själv. Vill du veta hur 8770 presterar så googlar du och hittar ett test. Vill du veta hur GT 640 presterar så har du ingen aning om din dator faktiskt kommer prestera som det testet för det kan vara ett betydligt snabbare eller långsammare kort du får, trots att namnet är samma. Ser du skillnaden?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Och vad spelar det för roll? Om folk inte hade köpt det dyrare kortet med mer prestanda hade chippet istället legat på hyllan. Är det bättre menar du? Detta är inget nytt, så här har halvledarprodduktion fungerat i evigheter. Vi vet inte hur många 1070 som egentligen kunde används till 1080 men som säljs i det lägre segmentet. Det är ju verkligen bortkastad energi att vara upprörd över att varenda liten kiselbit kanske kunde varit lite snabbare.

Så bra att du har koll på vad som andra bör anse vara slöseri med tid. Jag är verkligen imponerad.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Skrivet av GilbertG:

RX 470 eller 480?

Problemet med dessa kort är att de är så energi-ineffektiva. Då jag idag sitter med ett Corsair 430W nätagg så innebär det att jag även måste investera i ett kraftigare nätagg och då kan jag lika gärna köpa ett GTX 1060 6gb som mitt nuvarande nätagg klarar att driva.

Dock så tror jag att resten av mitt system flaskhalsar ett 1060 6gb samt så hade jag tänkt lägga lite mindre än 3k på ett grafikkort.

Därav borde detta kort passa mig ypperligt

Visa signatur

Apple MacBook Pro 13" 2012 | Apple iPad Air 2013

Permalänk
Hjälpsam
Skrivet av Gregermeister:

Problemet med dessa kort är att de är så energi-ineffektiva. Då jag idag sitter med ett Corsair 430W nätagg så innebär det att jag även måste investera i ett kraftigare nätagg och då kan jag lika gärna köpa ett GTX 1060 6gb som mitt nuvarande nätagg klarar att driva.

Dock så tror jag att resten av mitt system flaskhalsar ett 1060 6gb samt så hade jag tänkt lägga lite mindre än 3k på ett grafikkort.

Därav borde detta kort passa mig ypperligt

Nej de måste du inte, så ineffektiva är de absolut inte.
Mindre än 300W från väggen för sweclockers hela system, du borde kunna komma undan med betydligt mindre.

Dold text
Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Gregermeister:

Problemet med dessa kort är att de är så energi-ineffektiva. Då jag idag sitter med ett Corsair 430W nätagg så innebär det att jag även måste investera i ett kraftigare nätagg och då kan jag lika gärna köpa ett GTX 1060 6gb som mitt nuvarande nätagg klarar att driva.

Dock så tror jag att resten av mitt system flaskhalsar ett 1060 6gb samt så hade jag tänkt lägga lite mindre än 3k på ett grafikkort.

Därav borde detta kort passa mig ypperligt

De är inte alls energiineffektiva, de har rätt bra effektivitet som ligger något bättre till än Maxwell, dvs 970 et al. Det är snarare så att Pascal är väldigt energieffektiv.

Dold text

Jag gjorde en schablonuträkning åt dig här http://outervision.com/b/hI8J80 med ett RX 480, och fastän jag tar i ganska mycket och drar till med en förhållandevis rejäl överklockning av grafikkortet så går inte det rekommenderade effektvärdet högre än 360W. Så du kan tryggt och glatt köpa precis vilket grafikkort som helst

Ett RX 470 4GB hade kanske varit trevligast ihop med din processor, det är nog det mest prisvärda kortet ute, i synnerhet XFX Radeon RX 470 Triple X HDMI 3xDP 4GB som landar om 3 dagar.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem
Skrivet av warh0g:

Jag är rätt säker på att 8800 GTS 320/640MB ram enbart var G80. Det kom ett nytt kort med g92 som hette 8800GT och hade 512MB ram.
Hade iaf ett GTS 320mb som gick sönder och jag fick ett 8800gt 512 i ersättning

Skickades från m.sweclockers.com

8800 GTS 320/640 var g80 jag hade två 640.
Sen var g92 storsäljaren 8800gt, men såldes även 8800 GTS 512 (hade två) som in var nerbantade som gt kortet var. Många bekanta köpte gt av g92 så man har hålt i några ex av de korten.
Sen var det en massa omdöpning på g92. både i 9xxx och 2xx serien.

OnT.
Skulle vara dumt av nVidia att inte släppa ett sämre kort på gp106 då för att slippa slänga trasiga kretsar.
Misstänker dock att valet av bara 3 i minne, beror på att kretsarna ju kostar lika mycket att tillverka även om de är defekta och man inte vill konkurrera med sig själv men däremot med AMD, så sänker man vram mängden för att få extra marginaler. Även om det kan ses som småpotatis så blir det desto mer i volymer.

Edit:
Länkade fel person.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Moderator
Testpilot
Skrivet av hACmAn:

8800 GTS 320/640 var g80 jag hade två 640.
Sen var g92 storsäljaren 8800gt, men såldes även 8800 GTS 512 (hade två) som in var nerbantade som gt kortet var. Många bekanta köpte gt av g92 så man har hålt i några ex av de korten.
Sen var det en massa omdöpning på g92. både i 9xxx och 2xx serien.

OnT.
Skulle vara dumt av nVidia att inte släppa ett sämre kort på gp106 då för att slippa slänga trasiga kretsar.
Misstänker dock att valet av bara 3 i minne, beror på att kretsarna ju kostar lika mycket att tillverka även om de är defekta och man inte vill konkurrera med sig själv men däremot med AMD, så sänker man vram mängden för att få extra marginaler. Även om det kan ses som småpotatis så blir det desto mer i volymer.

Edit:
Länkade fel person.

Jag tror ingen ifrågasätter det affärsmässiga att utnyttja sämre presterande/skadade kretsar för att skapa ett lägre prestandasegment då detta är en vedertagen metod inom industrin. Det man emotsätter sig är att namngivningen är direkt missvisande då det bär samma namn som det bättre presterande GTX 1060 6GB. Det är en hittills ovanlig metod att särskilja prestandan på modeller enbart genom mängden videominne.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Dinoman:

Jag tror ingen ifrågasätter det affärsmässiga att utnyttja sämre presterande/skadade kretsar för att skapa ett lägre prestandasegment då detta är en vedertagen metod inom industrin. Det man emotsätter sig är att namngivningen är direkt missvisande då det bär samma namn som det bättre presterande GTX 1060 6GB. Det är en hittills ovanlig metod att särskilja prestandan på modeller enbart genom mängden videominne.

Ja så sant. och dumt nog har nvidia gjort mer eller mindre samma sak en massa gånger. 460 768MB för att nämna en klassiker.

Edit:
260 är en annan fin en ofta stod det bara det och inte om det var core 216 eller inte fick man kolla i produktspecifikationen därifrån man skulle beställa. Även om jag vill minnas att det var klarare just då det släpptes för att sidorna ville visa att vi kan sälja detta.

Som andra skrivit så LE eller som båda ATI och Nvidia använde SE kanske hade varigt ett mer passande namn.
Mindes fel.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Skrivet av GilbertG:

De är inte alls energiineffektiva, de har rätt bra effektivitet som ligger något bättre till än Maxwell, dvs 970 et al. Det är snarare så att Pascal är väldigt energieffektiv.

Jag gjorde en schablonuträkning åt dig här http://outervision.com/b/hI8J80 med ett RX 480, och fastän jag tar i ganska mycket och drar till med en förhållandevis rejäl överklockning av grafikkortet så går inte det rekommenderade effektvärdet högre än 360W. Så du kan tryggt och glatt köpa precis vilket grafikkort som helst

Ett RX 470 4GB hade kanske varit trevligast ihop med din processor, det är nog det mest prisvärda kortet ute, i synnerhet XFX Radeon RX 470 Triple X HDMI 3xDP 4GB som landar om 3 dagar.

Jo det kortet kan vara av intresse ändå i sådanafall, dock så vill jag vänta och se vad Geforcekortet landar på pris/prestandamässigt gentemot ett 470

Visa signatur

Apple MacBook Pro 13" 2012 | Apple iPad Air 2013