Nvidia förklarar det segmenterade videominnet i Geforce GTX 970

Permalänk
Medlem
Skrivet av emilakered:

Sålänge det är en "full" krets sker hanteringen precis som vanligt. Det betyder ju till exempel att GTX 960 inte har samma beteende, eftersom det är hela GM206. Nedskalade GM200 kommer sannolikt bete sig likadant som GTX 970.

Skillnaden med Maxwell mot Kepler är att Nvidia även kan använda "halva" sektioner i minneshanteringen, där de tidigare behövde slå av hela klabbet. För Kepler handlade det till exempel om att ett delvis defekt GTX 680 blev GTX 660 med 192-bitarsbuss. Här kör de med "smarta" algoritmer och sparar hela minnet i två partitioner istället, vilket gör att fler kretsar kan användas och därmed pressar priserna. Bizznizz.

Då till en fråga jag har. Kommer ni möjligen göra någon undersökning av gtx 970 och vad förlusten blir i spel när minnes användningen går över 3.5 gb?
Förstår om ni helt enkelt inte har tid med det men fan vad många skulle uppskatta en sådan undersökning från er.

Visa signatur

Jag har en data

Permalänk
Medlem

970 är fortfarande mer prisvärt än 980. Prestandan är lika bra som vid lanseringen..

Visa signatur

r_wateralpha 0.3

Permalänk
Relik 📜
Skrivet av Nzt:

Då till en fråga jag har. Kommer ni möjligen göra någon undersökning av gtx 970 och vad förlusten blir i spel när minnes användningen går över 3.5 gb?
Förstår om ni helt enkelt inte har tid med det men fan vad många skulle uppskatta en sådan undersökning från er.

Jag håller på att testa lite vid sidan av, men precis som Anandtech och andra säger är det.. svårt. Det är helt enkelt extremt lurigt att hitta scenarion där man kan ringa in att just minneshanteringen är problemet, speciellt utan att man ändå ligger på 15 fps och tuggar. Jag får helt enkelt se om det blir något vettigt av det.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem
Skrivet av emilakered:

Jag håller på att testa lite vid sidan av, men precis som Anandtech och andra säger är det.. svårt. Det är helt enkelt extremt lurigt att hitta scenarion där man kan ringa in att just minneshanteringen är problemet, speciellt utan att man ändå ligger på 15 fps och tuggar. Jag får helt enkelt se om det blir något vettigt av det.

Det är ju jätte enkelt !
Gör som den normala användaren och hitta ett ställe där frameraten dyker en aning och skyll på minnet !
Q.E.D !

Permalänk
Medlem
Skrivet av Svensktiger:

Det är ju jätte enkelt !
Gör som den normala användaren och hitta ett ställe där frameraten dyker en aning och skyll på minnet !
Q.E.D !

gärna i CS:GO med..

Visa signatur

Chassi: Silverstone Fortress FT05B PSU: Corsair RM650i MoBo: ROG Strix X570-F CPU: AMD Ryzen 3600X Mem: 32GB G.Skill Trident Z Neo GPU: EVGA GTX970 SSC Cooling: Corsair H115i SSD: Samsung 970 EVO Plus 1TB SSD & MX100 512GB

Permalänk
Medlem
Skrivet av Teddis:

De har tvärtemot påstått att sista 0.5GB visst är användbara och att prestandaförlusten är liten. Se första svaret de gjorde. Sedan är det upp till dem att bevisa att problem folk upplevt, och direkt skyllt på minnessegmenteringen, kan lösas via drivrutiner.

Skickades från m.sweclockers.com

Ja när man enbart tittar på max fps så lär skillnaden inte bli så stor, tar man med min fps & mäter man sedan renderingstider så kommer en annan bild uppstå ganska snabbt. Att man kan påstå att det inte är så stor skillnad mellan 28GB/s och 196GB/s i prestanda är mer eller mindre bisarrt. Detta kommer såklart endast att uppstå när minnesanvändningen överstiger 3,5GB, något som drivrutinen aktivt förhindrar enligt nVidia själva, alltså nVidia säger att drivrutinen undviker använda mer än 3,5GB i största möjliga mån. Att då påstå att kortet har 4GB fullt fungerande videominne rimmar väl ganska illa...

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk

Mer kostnadseffektivt för Nvidia men som kund måste det kännas ganska kasst. Hoppas som sagt att de som inte vill behålla kortet får reklamera det.

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Entusiast
Skrivet av emilakered:

Som jag fattade på Nvidia igår (jag satt också i ett fancy samtal med Jonah Alben) fungerar det dock "smartare" än så. Han tryckte på att "the OS" i någon mån "vet om" sektionerna med minne och bara kommer ge applikationen 3,5 GB i första steget, där Nvidias "smarta" algoritmer sedan ska bedöma när resterande minnes släpps på och till vilken data (typ). Det är anledningen till att de flesta titlar stannar just där, ytterligare saker lagras inte om det inte blir strängt nödvändigt. Att skyffla mellan 3,5 GB och 0,5 GB tar mycket kraft och är något jag tror kretsen i det längsta undviker.

I slutänden tror jag dock vi menar samma sak, det är upp till Nvidias algoritmer att bedöma hur minnet ska hanteras. Som jag fattar det sker dock minimalt med skyfflande/jonglerande mellan sektionerna, helt enkelt för att det är högt prestandastraff. Kretsen kan ju inte använda båda segmenten samtidigt. Jag kan förövrigt hälsa att det är rätt svårt att få ned och omvandla den tekniska engelskan till lagom nivå-svenska..

Jag tror också att vi menar typ samma sak. Det jag syftade på med jonglerar var inte primärt att man ska flytta massa data fram och tillbaks mellan zonerna utan att drivrutinerna måste se till att det hamnar rätt från början. Ofta inte ett problem då det som andra sagt inte är helt trivialt att fylla upp 3,5 GB VRAM med användbar information ändå men vissa spelmotorer verkar ju tycka om att använda så mycket RAM de kommer åt med filosofin att oanvänt minne är meningslöst minne.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Friterad:

Hur vet jag om mitt 970 har 64st enheter eller 56 samt mängd cache? Köpte den för några veckor sedan men kan ju vara en "gammal" modell ändå

Ehm.. samtliga kort är enl sistnämda justeringen... Hur kan man inte förstå detta.

Visa signatur

WS: R7 5800X, 32GB, Suprim X 3080, Acer X38P+Acer XB271HU
FS: HPE ML110 Gen10 Xeon Silver, Qnap TS-h973AX ~100TB
NW: Fortigate, Ruckus, Zyxel XS1930HP 10Gb

Permalänk
Medlem
Skrivet av FuzzyMcFluffens:

Jag tror faktiskt Samsung har en garanti att det inte ska uppkomma mer än typ 10st döda pixlar inom ett år på deras TV-skärmar.

Men det här mer av ett fult marknadsföringsknep.
De gör ju likadant med dubbla GPU kort, tex Titan Z, där de skriver att kortet har 12GB Vram.
Det finns ju 12GB minna på kortet men den användbara mängden blir egentligen 6GB.

De har denna garantin, NU. Men när LCD kom så var det okej att ha dessa defekta pixlar. Allt varierade mellan 1 och 10! på en 23" skärm. "För det var svårt att tillverka".
Vet, för jag fick en med stark röd pixel som störde något så in i H, och fick ingen ersättning. Jag lyckats till slut "paja" just den pixeln nog för att den iaf skulle bli en mörk pixel, och inte störa.

Det är detta jag menar, om Nvidia från början hade släppt kortet som ett 3,5GB kort, med rätt specs och allt, så hade det varit exakt vad folk köpt. Om man när man köpte dessa LCD skärmar, kunde välja mellan en felfri och en med "något fel", billigare? Typ som mellan ett 980 och 970 gör idag. Du har en del avstängt och icke fungerande delar, de har sett till att den fungerar i helhet som mindre kort.
Inga speciella drivrutins knep, inga "optimeringar" eller andra problem som ibland inte fungerar, utan ett kort som har den mängden VRAM den kan använda och fungerar till 100% med det.

Jag anser att NVidia gjort en bra sak att få mellankretsar, istället för 680 -> 660 som noterades ovan, men varför då ljuga och säga att det är ett "675.5"?
Varför kan man då inte sälja det som det är? Ett 3,5GB kort med full funktion?

Permalänk
Datavetare
Skrivet av emilakered:

Det är en definitionsfråga, precis som bandbredden. Bussen är rent tekniskt 256 bitar och har rent tekniskt maximala bandbredden 224 GB/s, men eftersom alla delar inte kan användas simultant blir det en smula akademiskt. Jag personligen skulle väl ge fan i att tjura över bitarna (de är ju bara "means to an end" ändå), men däremot skulle jag säga att maximala, praktiska, bandbredden är 196 GB/s snarare än 224 GB/s.

Håller med om att som designen nu visade sig se ut kring crossbar-switchen så är det inte praktiskt att få ut mer än 196GB/s. Däremot borde det vara fullt praktiskt möjligt att ändå designa en specifikt program som faktiskt får ut full bandbredd. Tillvägagångssättet bygger då på att bandbredden över varje port i crossbar-switchen är ganska mycket högre än vad minneskontrollen mot GDDR5 kan leverera, att designen ser ut på det sättet är ju en förutsättning för att en L2-cache överhuvudtaget ska ha någon relevant poäng.

Vet inte hur snabbt det går att konfigurera om "ledningarna" i crossbar-switchen, men AnandTech pratar om att det inte är möjligt att under samma klockcykel använda de två RAM-moduler som delar crossbar-port (d.v.s. sista 0.5GB av 3.5GB zonen samt den nu omtalade 0.5GB zonen som är långsammare). Låter därmed att det inte är mer än enstaka klockcykler för att routa om input/output över crossbar-switchen.

Vad man då kan göra är utnyttja L2-cachen som en buffert (vilket den normalt sätt ändå är) + utnyttja det faktum att GDDR5 kontrollers har logik för att gissa vilken nästa data är som kommer läsas (de gör prefetch). Går då att läsa 7 gånger från 3.5GB RAM, sedan 1 gång från 0.5GB RAM om och om igen. Bandbredd från L2->SMM är högre än 224GB/s så den "norra" sidan av minneskontroller/L2 hinner med att jobba efter den "södra" (256-bitars bussen mot GDDR5) och L2 är stor nog att hålla den data som främst kommer från 0.5GB delen under de 7 cykler man inte läser.

Ingen aning om varför man ska bry sig om detta mer än att Nvidia skulle kunna använda det för att hävda att det rent tekniskt fortfarande är rätt att hävda 224GB/s, att försöka använda det jag berskrev i något så pass komplicerat som ett spel får nog Cell-programmering för PS3 att verka som en "walk in the park"

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Snälla aftonbladet, uhh... Jag menar Sweclockers, ni hade kunnat skriva en betydligt bättre artikel om detta. Både Anandtech, http://www.anandtech.com/show/8935/geforce-gtx-970-correcting-the-specs-exploring-memory-allocation , och PCperspective, http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970, har artiklar som ger en betydligt mer rättvis bild av vad som har hänt.

Emil räddar situationen lite med sina kommentarer, men det är långt ifrån alla som orkar läsa genom 8 sidor kommentarer. Tänk på detta i fortsättningen om ni skall skriva om såhär känsliga saker.

Nu till mina åsikter om saken. Jag anser att det är riktigt galet att Nvidia gått ut och sålt kortet under felaktiga specifikationer så länge som de har gjort. Men specifikationer är siffror på papper, grafikkortet prestanda förblir densamma. Nvidia räddar lite av sitt anseende genom att faktiskt krypa till korset och medge att de gjort fel och har delgivit en förklaring till varför problemet uppstått. Vidare, deras tekniska förklaring får åtminstone mig att känna mig fortsatt bekväm med att rekommendera 970 till vänner/bekanta som rådfrågar mig om grafikkortsköp.

Till folk som har eggats upp till att reklamera era kort så har ni förmodligen rätt till att göra det. Men kanske skall ni testa kortet i ett par spel och se om ni faktiskt ens upplever detta som ett problem? Man skall inte basera beslut på enbart det man läser på internet, framförallt inte i kommentarsfälten.

Tack och hej

Visa signatur

5800X3D, ASUS TUF 4080 , 32 GB G.SKILL Tridentz 3600cl16, Gigabyte x570 wifi pro, Samsung 960 EVO 512GB, Corsair SF750, Xtia Xproto-L

Permalänk
Medlem
Skrivet av PrivatePartsGBG:

Se även dessa benchmarks med 970 OC och 980 OC i 4k och SLI, dock inga siffror angående minnesutnyttjande. Det går väl att dra många slutsatser åt båda hållen baserat på dessa benchmarks men i min värld är resultatet lite som förväntat.

http://www.overclock.net/t/1519016/gtx-980-oc-vs-gtx-970-oc-4...

Det där är ju klockrent. Visar förvisså inte frametimes men visar att även i 4k så är det ju inga problem.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Hjälpsam
Skrivet av THB:

Kortet har 4GB användbart videominne, inte 3.5GB.
Att påstå något annat är totalt felaktigt och ren lögn.

Nej 32 GB/s är inte användbart videominne, lika lite som 16 GB/s (3.0) eller 8GB (v2.0) via PCIe bussen är det.
Skall man räkna dessa 0.5GiB som användbart kan lika gärna inkludera det delade minnet också, i så fall har jag över 16 GiB videminne, Hurra!

Skrivet av Teddis:

De har tvärtemot påstått att sista 0.5GB visst är användbara och att prestandaförlusten är liten. Se första svaret de gjorde. Sedan är det upp till dem att bevisa att problem folk upplevt, och direkt skyllt på minnessegmenteringen, kan lösas via drivrutiner.

Skickades från m.sweclockers.com

Ja, det har de hävdat, slarvigt utryckt av mig.
De har ju också sagt att 0.5 GIB av GTX970:s minne går i 32 GB/s, vilket är för långsamt för att kunna användas som videominne, så jag tycker att de indirekt sagt att kortet har 3,5 GiB videominne, men visst har du rätt i att det nog kommer dröja innan de erkänner konsekvensen av ett så långsamt minne.

Ja det är upp till dem, men risken är att de bara testar spel som allokerar 4 GiB minne och använder mindre än 3,5 GiB åt gången, där märks ju inte problemen.
För att problem skall uppstå måste GPU:n använda mer än 3,5 GiB samtidigt.
Inte triviallt att testa sådant, hur vet man hur mycket GPU:n behöver av det videominne som är allokerat?
-------------------------------------------------------------------------´

Jag tycker att de tester som PrivatePartsGBG länkade är intressant , man ser en del fall där GTX970 minimum fps är oförklarigt mycket lägre än GTX980, vilket tyder på att minnet börjar flaska.

#15181740
Grafer lägg märke till hur min fps sjunker drastiskt för GTX970.

http://www.overclock.net/t/1519016/gtx-980-oc-vs-gtx-970-oc-4...

I Hitman halveras min fps nästan!

http://www.overclock.net/t/1519016/gtx-980-oc-vs-gtx-970-oc-4...

Citat:

What i noticed was that the overall fluidity while running those benchmarks greatly favored the 980's. I don't know why, but the 970's just seemed a little sluggish.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam
Skrivet av Devil May Cry:

Det där är ju klockrent. Visar förvisså inte frametimes men visar att även i 4k så är det ju inga problem.

Nope, min fps faller mer än det borde i vissa fall, se mitt inlägg efter ditt, klicka på spoilern.
Att kortet måste provoceras hårt för att få denna effekt, är självklart, det är ju trots allt bara en fråga om skillnaden mellan 3.5 GB och 4GB.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av emilakered:

Jag håller på att testa lite vid sidan av, men precis som Anandtech och andra säger är det.. svårt. Det är helt enkelt extremt lurigt att hitta scenarion där man kan ringa in att just minneshanteringen är problemet, speciellt utan att man ändå ligger på 15 fps och tuggar. Jag får helt enkelt se om det blir något vettigt av det.

Jag förstår. Har ni möjlighet och testa i sli också? Verkar vara där problemet är lättast att hitta. Då har man två gpuer men fortfarande endast 4gb minne eller 3.5gb att fylla.

Skickades från m.sweclockers.com

Visa signatur

Jag har en data

Permalänk
Medlem

Om man tittar här så är skillnaden mellan 980 och 970 mellan 1 och 3% i tapp över 3,5GB vram.
Jag är ganska säker på att en del av den skillnaden beror på gpu'n och inte minnet, detta gör ju att påverkan av fadäsen är obetydlig.

Sen många som säger att dom har problem tror jag inte kan vara säkra på att det beror just på minneshanteringen i 970, det är ju inte så att denna typen av problem aldrig existerat tidigare, tror därför minneshanteringen får skulden (efter avslöjandet) trotts att problemet egentligen beror på något helt annat i de flesta fallen.

Tyvärr är det inte ovanligt att tillverkare "missar" att ge rätt information från början och detta är varken första eller sista gången vi kommer att få se detta.

Permalänk
Skrivet av Verminator:

Är det inte 4GB minne på kortet? O.o

Inte som du kan bruka som videominne. För då tankar det. Jag hade planer på att slia ett till kort framöver men jag kommer sikta på reklamera o köpa r9 380/x. Kör mest bf4 så mantle kanske börjat funka då med. Jag vill inte ha ett kort som kan tanka från 180 fps ner till 70. Tanken var ju att säkra grafiken en stund framöver. Men den går ju i stöpet lite. Dom har medvetet krängt ett kort med 4gb men som du bara kan använda 3.5gb.

Skickades från m.sweclockers.com

Visa signatur

Ledsen ägare till ett Nvidia GTX 970 G1 med "nästan" 4GB brukbart videominne....

Permalänk
Relik 📜

*tråd rensad*

Caps lock är inte cruise control for cool, oavsett vad internet må ha att säga om saken.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem

Det är främst under speciella omständigheter som man upptäcker problemen. Jag hade nog föredragit att Nvidia hade begränsat kortet till 3,5GB så att problemet aldrig uppstod från första början. Nu blir det en minneskontroller som måste täcka upp för för den trasiga och inaktiverade.

Visa signatur

Core i5 2500K 103MHz*45, Asus P8Z68-V Pro, 4x4GB 103MHz*16, Intel 320 120GB*2, Fractal Design R2, Fractal Design Newton 650W, Asus Xonar mm

Permalänk
Medlem

Så de har erkänt sitt lurendrejeri. Återstår att se om stämningar i usa och andra länder kommer ske.

Lite irriterad nu över att jag sålt mitt gtx 680 cu 2.. 970't gav bara mindre prestandaförbättringar. Ser inte direkt något bra alternativ på marknaden att byta till heller om man skulle lämna tillbaka kortet...

Jag har dock inte upplevt några problem men jag har 1440p skärm så det finns ju risker...

När skulle amd släppa sitt monster?

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Medlem
Skrivet av MacAllan:

http://www.nordichardware.se/images/labswedish/nyhetsartiklar...

Om man tittar här så är skillnaden mellan 980 och 970 mellan 1 och 3% i tapp över 3,5GB vram.
Jag är ganska säker på att en del av den skillnaden beror på gpu'n och inte minnet, detta gör ju att påverkan av fadäsen är obetydlig.

Sen många som säger att dom har problem tror jag inte kan vara säkra på att det beror just på minneshanteringen i 970, det är ju inte så att denna typen av problem aldrig existerat tidigare, tror därför minneshanteringen får skulden (efter avslöjandet) trotts att problemet egentligen beror på något helt annat i de flesta fallen.

Tyvärr är det inte ovanligt att tillverkare "missar" att ge rätt information från början och detta är varken första eller sista gången vi kommer att få se detta.

Om du faktiskt Läser nvidias uttalande och sedan tittar på siffrorna de presenterar så kommer du se att när minnet kommer användas aktivt så kan inte dessa siffror stämma där mer än 3.5 gb används på 970 då den sista 512 Mb bara körs i 32 gb/s gentemot de första 3.5 gbs 224 GB/s nvidia är i full retard skadereglering just nu så jag skulle ta allt de säger med flera ton av salt,

Sedan faktumet att många bara slentrian accepterar att det blivit ljugna för är helt otroligt, ja gtx 970 är fortfarande en trevlig produkt som man kan vara nöjd med, Men jisses har folk blivit så placated nu för tiden?, för 20 eller heck 10 år sen så hade jag nog garanterat att både recensenter och konsumenter hade haft högafflarna framme,

Permalänk
Medlem
Skrivet av Sirme:

Om du faktiskt Läser nvidias uttalande och sedan tittar på siffrorna de presenterar så kommer du se att när minnet kommer användas aktivt så kan inte dessa siffror stämma där mer än 3.5 gb används på 970 då den sista 512 Mb bara körs i 32 gb/s gentemot de första 3.5 gbs 224 GB/s nvidia är i full retard skadereglering just nu så jag skulle ta allt de säger med flera ton av salt,

Sedan faktumet att många bara slentrian accepterar att det blivit ljugna för är helt otroligt, ja gtx 970 är fortfarande en trevlig produkt som man kan vara nöjd med, Men jisses har folk blivit så placated nu för tiden?, för 20 eller heck 10 år sen så hade jag nog garanterat att både recensenter och konsumenter hade haft högafflarna framme,

Javisst, men för 10 år sedan hade inte företag denna extrema press och korta TTM (time to market) som de har nu. Dessutom har produkter blivit riktigt jäkla komplicerade jämfört med då, framförallt grafik/vanliga processorer. Jag säger inte att det Nvidia gjort är bra, men jag kan, förvisso i en mindre usträckning, förstå dem. Vi har sett flera missar som stora hårdvaruföretag gjort nu på senare tid, och som det ser ut kommer dessa bara komma tätare och tätare om denna utveckling fortsätter.

Vad föreslår du att folk ska göra istället för att "slentrian acceptera"? Reklamera sina kort? Vad skall de isf byta till för samma pris/prestanda? Skall de vänta på AMDs 300 serie som ingen vet något konkret om vad gäller prestanda, effekt och kanske viktigast av allt prissättning? Att hetsa folk och skapa lynchstämning är bara otrevligt och onödigt.

Visa signatur

5800X3D, ASUS TUF 4080 , 32 GB G.SKILL Tridentz 3600cl16, Gigabyte x570 wifi pro, Samsung 960 EVO 512GB, Corsair SF750, Xtia Xproto-L

Permalänk
Hjälpsam
Skrivet av MacAllan:

http://www.nordichardware.se/images/labswedish/nyhetsartiklar...

Om man tittar här så är skillnaden mellan 980 och 970 mellan 1 och 3% i tapp över 3,5GB vram.
Jag är ganska säker på att en del av den skillnaden beror på gpu'n och inte minnet, detta gör ju att påverkan av fadäsen är obetydlig.

Sen många som säger att dom har problem tror jag inte kan vara säkra på att det beror just på minneshanteringen i 970, det är ju inte så att denna typen av problem aldrig existerat tidigare, tror därför minneshanteringen får skulden (efter avslöjandet) trotts att problemet egentligen beror på något helt annat i de flesta fallen.

Tyvärr är det inte ovanligt att tillverkare "missar" att ge rätt information från början och detta är varken första eller sista gången vi kommer att få se detta.

Du kan se de grafer jag länkade till tidigare.
Tappet på min kan inte förklaras med annat än att det är en fundamental skillnad på korten.
#15182076

Fler exempel i mitt inlägg, trist att folka inte orkar läsa.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Haibane:

Javisst, men för 10 år sedan hade inte företag denna extrema press och korta TTM (time to market) som de har nu. Dessutom har produkter blivit riktigt jäkla komplicerade jämfört med då, framförallt grafik/vanliga processorer. Jag säger inte att det Nvidia gjort är bra, men jag kan, förvisso i en mindre usträckning, förstå dem. Vi har sett flera missar som stora hårdvaruföretag gjort nu på senare tid, och som det ser ut kommer dessa bara komma tätare och tätare om denna utveckling fortsätter.

Vad föreslår du att folk ska göra istället för att "slentrian acceptera"? Reklamera sina kort? Vad skall de isf byta till för samma pris/prestanda? Skall de vänta på AMDs 300 serie som ingen vet något konkret om vad gäller prestanda, effekt och kanske viktigast av allt prissättning? Att hetsa folk och skapa lynchstämning är bara otrevligt och onödigt.

Att hetsa folk och skapa lynchstämning är bara otrevligt och onödigt.

okej så vad är alternativet? hur ska vi reagera?.
För alternativet är ju att om vi bara förlåter nvidia för detta så måste vi förlåta "sätt in valfritt företag" för deras misstag också och sen de efter det och sen nästa och nästa, tills det helt plötsligt blivit normen, och jag köper bara inte att pr teamen och internavdelningarna sprungit om varandra, jag menar ingen kan väl en krets så bra som dem som skapar den?, tror i så fall mer att ingenjörerna ville sätta dit 3.5 gb ram, Men sen kom pr folket och berättade för dem att det går ju inte då har de ju mindre minne på sina kort än amds motsvarande kort från förra generationen och hur skulle det se ut?

visst förstår jag att det kan förekomma diverse små obskyra buggar och det är jag helt förstående för:)

Men sättet nvidia har beskrivit hur minnet är uppdelat tyder ju helt klart på att de visste om de pre relaese, och 700 serien var väl ändå ute mycket längre än genomsnittet?

Så om vi inte ska använda ett av de få vertygen vi har som konsumenter, vad tycker du då vi ska göra?

Permalänk
Medlem
Skrivet av Haibane:

Javisst, men för 10 år sedan hade inte företag denna extrema press och korta TTM (time to market) som de har nu. Dessutom har produkter blivit riktigt jäkla komplicerade jämfört med då, framförallt grafik/vanliga processorer. Jag säger inte att det Nvidia gjort är bra, men jag kan, förvisso i en mindre usträckning, förstå dem. Vi har sett flera missar som stora hårdvaruföretag gjort nu på senare tid, och som det ser ut kommer dessa bara komma tätare och tätare om denna utveckling fortsätter.

Det är så lätt att slänga ur sig en sådan förklaring som egentligen är en ursäkt där du nu som privatperson och kund av okänd anledning till synes försvarar ett företag som här gjort fel.

De har gjort uppenbara simpla fel här där de misslett sina kunder och kört med falsk marknadsföring.

Om det sen i botten är 30, 90, 1200 eller fler personer som arbetat fram en produkt spelar mindre roll. Gäller bara att organisera sig.

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Medlem
Skrivet av emilakered:

Det är en definitionsfråga, precis som bandbredden. Bussen är rent tekniskt 256 bitar och har rent tekniskt maximala bandbredden 224 GB/s, men eftersom alla delar inte kan användas simultant blir det en smula akademiskt. Jag personligen skulle väl ge fan i att tjura över bitarna (de är ju bara "means to an end" ändå), men däremot skulle jag säga att maximala, praktiska, bandbredden är 196 GB/s snarare än 224 GB/s.

Ja minnesband bredden borde vara specad som (max) 196GB/s då ej alla minnes kanaler kan användas samtidigt. 28GB/s * 8 kanaler = 224GB/s men eftersom en minneshanterare hanterar 2 minnes moduler/kanaler så kan endast 7 kanaler köras samtidigt.

Det man ej sett ännu är om det uppstår "Micro-frysningar" då man skall växla mellan vilken av de 2 minnesbankerna som skall vara aktiv....?

Eller kan det vara så att kortet (Nvidia drivrutin) är väldigt ovillig att fylla de sista 512MB med data då detta kanske orsakar problem..?

Permalänk
Medlem
Skrivet av Sirme:

Att hetsa folk och skapa lynchstämning är bara otrevligt och onödigt.

okej så vad är alternativet? hur ska vi reagera?.
För alternativet är ju att om vi bara förlåter nvidia för detta så måste vi förlåta "sätt in valfritt företag" för deras misstag också och sen de efter det och sen nästa och nästa, tills det helt plötsligt blivit normen, och jag köper bara inte att pr teamen och internavdelningarna sprungit om varandra, jag menar ingen kan väl en krets så bra som dem som skapar den?, tror i så fall mer att ingenjörerna ville sätta dit 3.5 gb ram, Men sen kom pr folket och berättade för dem att det går ju inte då har de ju mindre minne på sina kort än amds motsvarande kort från förra generationen och hur skulle det se ut?

visst förstår jag att det kan förekomma diverse små obskyra buggar och det är jag helt förstående för:)

Men sättet nvidia har beskrivit hur minnet är uppdelat tyder ju helt klart på att de visste om de pre relaese, och 700 serien var väl ändå ute mycket längre än genomsnittet?

Så om vi inte ska använda ett av de få vertygen vi har som konsumenter, vad tycker du då vi ska göra?

Jag sade inte att vi INTE skulle använda våra verktyg som konsumenter. Allt jag begär är bara att vi handlar som upplysta konsumenter och inte dras med i mobben som slänger tillbaka sina 970s utan att resonera kring hruvuvida detta påverkar dem eller inte. Jag tycker inte att man skall lämna tillbaka kortet för att "alla andra gör det" och att p.g.a detta ovillkoreligt övergå till AMD är inte direkt genomtänkt det heller.

Skrivet av IceDread:

Det är så lätt att slänga ur sig en sådan förklaring som egentligen är en ursäkt där du nu som privatperson och kund av okänd anledning till synes försvarar ett företag som här gjort fel.

De har gjort uppenbara simpla fel här där de misslett sina kunder och kört med falsk marknadsföring.

Om det sen i botten är 30, 90, 1200 eller fler personer som arbetat fram en produkt spelar mindre roll. Gäller bara att organisera sig.

Lite ironiskt även du som privatperson har åsikter om hur företag och industrin fungerar. Med din logik är det alltså helt okej att tracka ned på ett företag utan större insyn i hur det fungerar än det är att försvara det. Dessutom håller jag med om att Nvidia gjort fel, men jag vägrar att jag hoppar på hat-tåget.

Visa signatur

5800X3D, ASUS TUF 4080 , 32 GB G.SKILL Tridentz 3600cl16, Gigabyte x570 wifi pro, Samsung 960 EVO 512GB, Corsair SF750, Xtia Xproto-L

Permalänk
Medlem
Skrivet av IceDread:

Så de har erkänt sitt lurendrejeri. Återstår att se om stämningar i usa och andra länder kommer ske.

Lite irriterad nu över att jag sålt mitt gtx 680 cu 2.. 970't gav bara mindre prestandaförbättringar. Ser inte direkt något bra alternativ på marknaden att byta till heller om man skulle lämna tillbaka kortet...

Jag har dock inte upplevt några problem men jag har 1440p skärm så det finns ju risker...

När skulle amd släppa sitt monster?

Frågan är om dom kan bli stämda, åtminstone då det gäller i USA? Dom är troligen friskrivna när det gäller förändringar i specifikationerna, även om dom inte riktigt stämde från början.
För något som brukar stå med små bokstäver på många kartonger till elektronikprodukter är "Specifications are subject to change without notice" eller "All specifications are subject to change at any time with or without written notice".
Jag har ett MSI GTX 970 Gaming (som jag är väldigt nöjd med) och tittar jag på lådan så är även den märkt med en av ovanstående texter.
Det finns med andra ord ett avtal att det kan ske förändringar i specifikationerna och då är det ju upp till kunden att ta reda på avtalen som gäller innan dom köper produkten.

Permalänk
Medlem
Skrivet av Tappi:

Tillräckligt många kommentarer som är ursäktande och innehåller saker som:

"Eller menar ni att ni har suttit och räknat på hur kortet kommer att prestera med antalet ROP enheter och CUDA-kärnor"
"Dagens bortskämda snorungar..."
"Klart folk köpte baserat på x antal rasterenheter.... 90% kollade inte ens specifikationerna."

Som jag skrev i mitt första inlägg: "Självklart så har ju 970 inte helt magiskt över natt blivit ett dåligt kort. "

Om jag ägde 970 så hade jag funderat på att lämna tillbaka det pga princip skäl.
Nvidia ska inte ostraffat kunna ljuga för sina konsumenter, det ska svida om de håller på så.

Det betyder inte att man skyddar Nvidia. Vad man reagerar på är att så många tror att det är ett dåligt köp helt plötsligt med mera. Hade jag vunnit på att lämna tillbaka mitt kort så hade jag gjort det, tyvärr så förlorar jag snarare på det med tanke på priset jag fick det för samt att man måste ta på sig tid att dra till butik och tjöta. Inte värt det för mig och många andra. Jag tänker inte göra en dålig deal för mig själv bara för att "straffa" Nvidia, med dom tankegångarna så hade jag inte kunnat köpa från någon, dom flesta produkter jag köper/gillar kommer från företag jag starkt ogillar (Apple, Samsung, MS, Google osv). Så just det sättet att straffa företag på tycker jag inte är någon idé, man kan ju dock hoppas på att Nvidia säljer sämre hädanefter (inte omöjligt).

Skrivet av _niko_:

Ehm.. samtliga kort är enl sistnämda justeringen... Hur kan man inte förstå detta.

Har redan blivit besvarad och det är bara jag som läste helt tokigt.