Nvidia Geforce GTX 970 och GTX 980 ersätts av Pascal med GDDR5X till Computex

Permalänk
Medlem

Spännande! Hoppas det är värt att byta ut Gtx 570 då

Permalänk
Medlem
Skrivet av FredrikMH:

8000kr för ersättaren till GTX 980 Ti

Blir ju perfekt det där, sparar skatteåterbäringen, och köper mig ersättaren för 980ti+ vattenblock <3

Visa signatur

AMD Ryzen 7 7800X3D
Asus TUF 4080
HyperX 32GB DDR5 6000MHz
WD SN850 1TB
Alienware 34" QD-OLED

Permalänk
Medlem
Skrivet av Aleshi:

GP100 kommer troligast bara ha stöd för en minnestyp då HBM2 och GDDR5/X skiljer sig så fundamentalt åt. Alltså kommer även ett eventuellt x80Ti ha HBM2.

Citat:

En källa gör också gällande att den första vågen ska innehålla en ersättare för GTX 980 Ti

om så vore fallet så kommer x80ti ha gddr5x för hbm2 kort kommer inte ut förrän Q3/Q4 2016
http://www.techpowerup.com/220707/sk-hynix-to-ship-4gb-hbm2-s...

Visa signatur

Min dator: Silent Base 600 | 1700X @ 3.9Ghz | MSI Gaming X 1080TI | RM750X | 512Gb M2 | 16Gb 3200mhz Ram | S34E790C @ 3440x1440
Tjejens dator: Define r4 | i5 3570k @ 4.2ghz | GTX Titan | 750w Supernova | 240gb SSD | 32gb ram
Citera/Tagga för svar!

Permalänk
Inaktiv

Blir att ersätta mitt s3 virge 4MB emot en sådan här, förse om det blir någon märkbar prestandaökning eller om det bara handlar om siffror?

Nå var det inte prat om dubbelprestanda, hur kan de då ha kvar toppkorten? Detta ger mig en antydan om att den inte kommer bli x-gånger snabbare?
Det känns som om den kommer bli en ny bulldozer, med tanke på marknadsföreningen.

Nå förhoppningsvis slutas toppkorten att tillverkas och då är allt naurligt.

Permalänk
Medlem

Jag hissar att detta blir en papperslansering av rang.

Skickades från m.sweclockers.com

Visa signatur

Min Dator: AMD 3600 | GTX 680 | 16 GB RAM | Asus X570 Prime | Fractal Design Arc R2 | Thermalright Silver Arrow | Dell U2412M | Ibm Model M

Permalänk
Medlem
Skrivet av Vangen:

Jag längtar skiten ur mig och vilja se hur snabbare dom är mot min 980Ti.

Jag hoppas på denna grafikkorts listan.

GTX Titan vX (Namn?) , HBM2? 16 - 24GB?
GTX 1090, GDDR5x - 16 GB (Dubbla 1080)
GTX 1080, GDDR5x - 8GB
GTX 1070, GDDR5x - 8GB

Vet att detta är "tjatigt". Men om det nu är samma krets, så lär den ha samma minnessegment,
vilket gör att 1070 lär bli 7GB snabbt, 1GB långsamt, om de bara "dubblerar" mängden på kretsnivå, med samma kontroller.

Sen lär 1090 bli nerbantad Titan, oavsett, då detta är det mest ekonomiska sättet att göra av med alla defekta kretsar i den kategorin.

Skrivet av GilbertG:

Nånting stämmer inte. Vanligtvis skrytsamma Nvidia har varit väääldigt tysta om Pascal. De har i stort sett inte visat någonting, och om två månader ska den lanseras. Även om det bara skulle vara en papperslansering, så brukar hypen likväl vara stor strax innan.

Jag misstänker att detta bara är en krympning av Maxwell. Det skulle också förklara Nvidias tidigare svammel om att Maxwell har fullt stöd för DX12. Om det vore så, så skulle i stort sett en krympning räcka för att göra nästa generation helt relevant nu också. Nvidia hoppades kanske att folket skulle svälja betet och komma undan med minimala förändringar till nästa generation. När det visade sig att DX12-betet inte gick ner, blev det väldigt tyst från Nvidia. De har ju nästan inget spelsamarbete på gång som involverar DX12. Kanske för att de vet att DX12 inte ger några prestandafördelar för dem, vilket implicerar att det som kommer nu är mycket snarlikt Maxwell. Det riktiga kommer väl inte förrän senare i år.

Mina två ören.

Låter fullt rimligt.
Blir intressant och se hur Nvidia fantaster tar denna re-brand isåfall. För jag fick förklarat för mig, i detta forum, av dessa, "att 980/970 inte alls behövde mer minnesbandbredd". Ändå trycker man på GDDR5X... Så om de inte verkligen lyckas pressa kärnan mer än 980/970 3:e part gör idag... var är vinsten om du har samma krets? Vi får se... hoppas iaf att det är ny krets, oavsett.

Lägg till att 980/970 inte verkar få någon specifik DX12 boost... alls. De kan nog twekas så att de inte tappar prestanda, men de kör redan sin optimerade prestanda i DX11, och lär inte gynnas av DX12 (väntar fortfarande på ett resultat där de gör).

Vi får som sagt se, men det finns anledning att tro att Nvidia gick bet på nästa gen.

Permalänk
Medlem

Lite som andra varit inne på tidigare så känns det som något inte stämmer.

En ersättare till 970/980 köper jag, de korten har varit med länge och det segmentet har tidigare baserats på samma krets.
Men att Nvidia skulle släppa en ersättare till 980ti (X80ti) betyder det då att de pressar samma krets ytterligare (från X70 till X80 och ända upp till X80ti)? Det innebär då att när de väl släpper big daddy-Pascal så behöver de hitta ett nytt passande syskonnamn till den nedbantade versionen av kretsen. Namnet "ti" har fungerat bra som ett mindre syskon till "titan", och varför ändra på ett vinnande koncept?

Alternativet är givetvis att de släpper big daddy-pascal samtidigt som korten längre ner i segmentet, med en komplett lineup. Då kan man fundera på om TSMC verkligen har fått tillräckligt hög yield på sin tillverkningsteknik för att det skulle vara ekonomiskt försvarsbart att göra stora kretsar ännu. Och varför skulle då Titan X fortsätta säljas?

Mina två cent är att det inte presenteras en direkt ersättare till 980ti, möjligen att Nvidia gör en övergång likt som när 980 släpptes, att den fick agera ersättare för både 780 och 780ti under en övergångsperiod.

Permalänk
Medlem

Undrar om de blir runt 10% snabbare som mellan 770/780 och 970/980.
Tror jag kan sitta på mitt 980 Ti ett tag till...

Visa signatur

Ny dator: Acer Predator Orion 5000 (RTX 3080)
[ I7 3770K @ 4.6Ghz | Asus 980 Ti 6GB | 16GB | Asus P8Z77-V PRO | Samsung 830 128GB | Corsair H100 | Cooler Master HAF X | Corsair AX 850W | Samsung DVD±RW ] [ Sony AF9 65" | Sony WF-1000XM3 | HTC Vive | Huawei P40 Pro | PS4 Pro | PS3 Slim | PS2 chippad | PS Vita | DS Lite | SNES Mini ]

Permalänk
Medlem

Jag tänkte passa på att fynda ett 970 eller 980 sen när alla går över till Pascal

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av GilbertG:

Nånting stämmer inte. Vanligtvis skrytsamma Nvidia har varit väääldigt tysta om Pascal. De har i stort sett inte visat någonting, och om två månader ska den lanseras. Även om det bara skulle vara en papperslansering, så brukar hypen likväl vara stor strax innan.

Jag misstänker att detta bara är en krympning av Maxwell. Det skulle också förklara Nvidias tidigare svammel om att Maxwell har fullt stöd för DX12. Om det vore så, så skulle i stort sett en krympning räcka för att göra nästa generation helt relevant nu också. Nvidia hoppades kanske att folket skulle svälja betet och komma undan med minimala förändringar till nästa generation. När det visade sig att DX12-betet inte gick ner, blev det väldigt tyst från Nvidia. De har ju nästan inget spelsamarbete på gång som involverar DX12. Kanske för att de vet att DX12 inte ger några prestandafördelar för dem, vilket implicerar att det som kommer nu är mycket snarlikt Maxwell. Det riktiga kommer väl inte förrän senare i år.

Mina två ören.

Tidigt rykte var att nivida skulle göra refresh på maxwell. Vist vad som sägs så finns inget 100% Dx 12 stöd. Men nividias arkitektur är inte så DX 12 redo som dom gjort reklam för.

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Raymond:

Inväntar AMD modeller samt tester innan jag bestämmer mig.. Med ny skärm med freesync eller g-sync i krokarna med så blir man tvungen att hålla sig till en sida ett par år framåt.

Finns redan fler freesync skärmar, så det känns som en tidsfråga innan nivida tvingas stödja det med. Intel enligt rykten ska använda det, men sägs inte när stödet kan komma eller om det ens gör det (då är det helkört för nivida).

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Avstängd

@Fulgano:

Haha, jag hör av mig när det blir aktuellt i början på juni då

Visa signatur

ROG Swift PG348Q@100Hz, Evolv ATX Tempered Glass, ROG Maximus Viii Formula, i7-6700@4.9GHz, 16GB 3000MHz Corsair Vengeance LPX, AX1200i, 2xGTX1080 FE @ 2GHz, Cryorig R1 Universal, 512gb Samsung 950 Pro M.2, 512GB Sasumg 850 Pro SSD, 2x3TB HD, RIG500E, K95 RGB, Rival 700, Dali Zensor 1

Permalänk
Medlem
Skrivet av LeVvE:

Det här är anledningen till att jag sitter kvar på min gamla skärm, vet inte än vilket grafikkort det blir och då kan jag inte köpa skärm heller. Nvidia skulle ju kunna lägga till FreeSync så de har båda men det kommer nog aldrig hända.

Kan hända om även skärmtillverkare inte prioriterar g-sync. Den är ju i dagsläget betydligt dyrare än adaptive-sync, samt Intel möjligen kommer lägga in stöd. Är ju fler skärmar med adaptive-sync än g-sync idag.

Dock behövs fler ips adaptive-sync skärmar (finns bara en ute, som har lite dumnt spann).

Nivida kommer troligen köra på till det inte går längre.

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Christley:

om så vore fallet så kommer x80ti ha gddr5x för hbm2 kort kommer inte ut förrän Q3/Q4 2016
http://www.techpowerup.com/220707/sk-hynix-to-ship-4gb-hbm2-s...

GP100 kommer först i vinter. Förövrigt har Samsung tillverkat HBM2 i några månader redan.
Men det hela är en fråga om hur man ser på saker. Menar man efterföljare som GM100 -> GP100 så är det först i vinter. Men GP104 kommer utan problem kunna prestera som 980 Ti redan i sommar. Men GP104 är efterföljaren till GTX 980. Fram till dess att GM100 släpps kommer dock övre mellansegmentskortet GM104 få extraknäcka som ett toppkort då det kommer prestera som ett när man jämför med dagens kort.
Lite som GTX 980 fick leka toppkort innan 980 Ti släpptes.

Permalänk
Medlem
Skrivet av xpanterx:

Undrar om de blir runt 10% snabbare som mellan 770/780 och 970/980.
Tror jag kan sitta på mitt 980 Ti ett tag till...

Bortsett från att mellan dem så var det 35-40%. 980 är ju snabbare än 780 Ti. Men då var det dessutom inom samma nod. Nu är det inte bara nodbyte, utan ett rejält ett. Istället för mesiga halvnodshopp eller ens ett ordentligare helnodshopp så hoppar man en och en halv nod. Räkna med minst 200% högre prestanda per ytenhet mellan noderna, och bli inte förvånad om vi når 300%.
AMD hoppar samtidigt 2 hela noder. Så det händer rejäla grejer nu.

Permalänk
Medlem

@Aleshi: Tänkte nog på Ti ja, där var det 7% såg jag nu.

22% var det visst för vanliga 780...

http://www.sweclockers.com/test/19332-nvidia-geforce-gtx-980-...

Visa signatur

Ny dator: Acer Predator Orion 5000 (RTX 3080)
[ I7 3770K @ 4.6Ghz | Asus 980 Ti 6GB | 16GB | Asus P8Z77-V PRO | Samsung 830 128GB | Corsair H100 | Cooler Master HAF X | Corsair AX 850W | Samsung DVD±RW ] [ Sony AF9 65" | Sony WF-1000XM3 | HTC Vive | Huawei P40 Pro | PS4 Pro | PS3 Slim | PS2 chippad | PS Vita | DS Lite | SNES Mini ]

Permalänk
Medlem
Skrivet av Aleshi:

Bortsett från att mellan dem så var det 35-40%. 980 är ju snabbare än 780 Ti. Men då var det dessutom inom samma nod. Nu är det inte bara nodbyte, utan ett rejält ett. Istället för mesiga halvnodshopp eller ens ett ordentligare helnodshopp så hoppar man en och en halv nod. Räkna med minst 200% högre prestanda per ytenhet mellan noderna, och bli inte förvånad om vi når 300%.
AMD hoppar samtidigt 2 hela noder. Så det händer rejäla grejer nu.

Jo det är onekligen ett stort steg man gör tillverkningsmässigt, så hoppet i prestanda lär bli ordentligt denna gång.
Men vi går samtidigt från stora mastodont kretsar till det man får anta till ytan vara mer moderat designade kretsar så frågan är om vi kommer se detta hopp redan nu.

Visa signatur

/havoc

Permalänk
Medlem
Skrivet av xpanterx:

@Aleshi: Tänkte nog på Ti ja, där var det 7% såg jag nu.

22% var det visst för vanliga 780...

http://www.sweclockers.com/test/19332-nvidia-geforce-gtx-980-...

Nej, 28%. Lär dig räkna åt rätt håll. Och det där var med purfärska drivrutiner. Kolla senare recensioner.

http://www.sweclockers.com/test/20523-nvidia-geforce-gtx-980-...
980 37% snabbare än 780.
970 39% snabbare än 770.

Men då hör det till saken att 770-serien är förskjuten uppåt lite eftersom de fick klyva Kepler i två serier när de fick problem med GK100. 680 och 770 är egentligen ett *60-kort.

Permalänk
Medlem
Skrivet av havoc:

Jo det är onekligen ett stort steg man gör tillverkningsmässigt, så hoppet i prestanda lär bli ordentligt denna gång.
Men vi går samtidigt från stora mastodont kretsar till det man får anta till ytan vara mer moderat designade kretsar så frågan är om vi kommer se detta hopp redan nu.

Jag tror inte man ger sig på så stora kretsar som 600mm² på en gång av tillverkningstekniska skäl. Men man kommer nog rätt snart börja inkassera de fördelar som finns av konkurrensmässiga skäl. Man kan inte var den som stannar kvar på onödigt små kretsar för länge.

Permalänk
Medlem

@Aleshi: Damn, javisst hjälper det om man räknar åt rätt håll!

Och ja, jag pratade om när korten släpptes, att det blir annat med nya drivrutiner är ju självklart, är samma för AMD.

Visa signatur

Ny dator: Acer Predator Orion 5000 (RTX 3080)
[ I7 3770K @ 4.6Ghz | Asus 980 Ti 6GB | 16GB | Asus P8Z77-V PRO | Samsung 830 128GB | Corsair H100 | Cooler Master HAF X | Corsair AX 850W | Samsung DVD±RW ] [ Sony AF9 65" | Sony WF-1000XM3 | HTC Vive | Huawei P40 Pro | PS4 Pro | PS3 Slim | PS2 chippad | PS Vita | DS Lite | SNES Mini ]

Permalänk
Datavetare
Skrivet av Paddanx:

Vet att detta är "tjatigt". Men om det nu är samma krets, så lär den ha samma minnessegment,
vilket gör att 1070 lär bli 7GB snabbt, 1GB långsamt, om de bara "dubblerar" mängden på kretsnivå, med samma kontroller.

Japp, väldigt tjatigt med tanke på att webbplatser som t.ex. Guru3D visat att när man kommer nära och passerar 4 GB VRAM så uppför sig 970 och 980 extremt snarlikt. Sedan blir det nästan lite komiskt när andra tester visar att i praktiken har 290/290X/Fury problem med vissa nyare titlar som använder väldigt mycket VRAM, ett problem som inte 390/390X har men inte heller 970 (inte ens 780Ti med 3 GB uppvisar problem)!

Dold text

Ett annat exempel, Fury har spikar som inte finns på 390, 970 eller 980.

Dold text

Tittar man på "allokerad mängd VRAM" så verkar spel definitivt kunna använda 4 GB i 970, frågan är varför 290 inte verkar vilja använda mer än 3,6 GB när 390X suger i sig 6,1 GB med samma inställningar. Nästan som man undrar vem som egentligen här ett VRAM-problem...

Dold text
Skrivet av Paddanx:

Sen lär 1090 bli nerbantad Titan, oavsett, då detta är det mest ekonomiska sättet att göra av med alla defekta kretsar i den kategorin.

Låter fullt rimligt.
Blir intressant och se hur Nvidia fantaster tar denna re-brand isåfall. För jag fick förklarat för mig, i detta forum, av dessa, "att 980/970 inte alls behövde mer minnesbandbredd". Ändå trycker man på GDDR5X... Så om de inte verkligen lyckas pressa kärnan mer än 980/970 3:e part gör idag... var är vinsten om du har samma krets? Vi får se... hoppas iaf att det är ny krets, oavsett.

Lägg till att 980/970 inte verkar få någon specifik DX12 boost... alls. De kan nog twekas så att de inte tappar prestanda, men de kör redan sin optimerade prestanda i DX11, och lär inte gynnas av DX12 (väntar fortfarande på ett resultat där de gör).

Vi får som sagt se, men det finns anledning att tro att Nvidia gick bet på nästa gen.

Om det är samma prestanda som 970/980 lär de nya kortet knappast få någon nytta av den extra bandbredden med GDDR5X, enda Maxwell-kortet som verkar strypt av VRAM-bandbredd är 960. Däremot finns en annan fördel med GDDR5X: strömförbrukningen är väldigt beroende på frekvensen minnet kör på, med GDDR5X kan man därför använda en lägre frekvens och ändå få minst lika hög bandbredd som GDDR5.

Sedan ligger nog 970/980 rätt nära kapaciteten för VRAM-bandbredd, så om de nya kretsar är 30-40 % snabbare eller mer så behövs mer bandbredd för att undvika en flaskhals där.

Angående DX12: den absolut största nyheten med DX12 är lägre "CPU-overhead" samt långt bättre möjligheter för utvecklare att utnyttja flera CPU-kärnor på ett effektivt sätt. Alla GPUer som fått DX12 (och Vulkan) stöd har fått dessa fördelar, dock är dagens GPUer inte starka nog att göra de snabbare Intel CPUerna till flaskhalsar så rent praktiskt har inte detta gett mer prestanda utan man får bara med "idle" tid på sin CPU. Detta syns väldigt väl i Ashes of the Singluarity, även om det är samma prestanda med DX11 som DX12 på Nvidias kort är CPU-användningen signifikant lägre med DX12.

Huruvida async compute finns eller ej har i praktiken noll påverkan på vilka funktioner man kan använda i DX12, vinsten för de kort som stödjer detta är möjlighet till bättre prestanda. De få fall som existerar så här långt pekar på att GCN1.1 verkar se störst vinst, upp till 20 % boost i Ashes of the Singularity och upp till 10 % boost i Hitman. GCN1.2 får något mindre medan GCN1.0 kortet i princip inte får någon vinst alls. Även med 20 % så är det knappast något som signifikant ändrar något, vissa Nvidia kort är ju fabriksöverklockade 20 % så de får motsvarande boost i alla titlar där kapacitet i GPU-delen är flaskhals (jämfört med "referens").

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Yoshman:

AMD skickar folk till vissa produktioner som då lägger in compressioner likväl som Nvidia skickar folk för GW. Så man får kolla noga efter spel släpp och senaste drivrutiner för båda lagen.

Permalänk
Medlem
Skrivet av Aleshi:

GP100 kommer först i vinter. Förövrigt har Samsung tillverkat HBM2 i några månader redan.
Men det hela är en fråga om hur man ser på saker. Menar man efterföljare som GM100 -> GP100 så är det först i vinter. Men GP104 kommer utan problem kunna prestera som 980 Ti redan i sommar. Men GP104 är efterföljaren till GTX 980. Fram till dess att GM100 släpps kommer dock övre mellansegmentskortet GM104 få extraknäcka som ett toppkort då det kommer prestera som ett när man jämför med dagens kort.
Lite som GTX 980 fick leka toppkort innan 980 Ti släpptes.

ja, men nu ska ju x80ti kommer redan till sommaren enligt en av swecs källor. inte till i vintern. det betyder högst troligen att x80ti inte kommer att ha hbm2

Visa signatur

Min dator: Silent Base 600 | 1700X @ 3.9Ghz | MSI Gaming X 1080TI | RM750X | 512Gb M2 | 16Gb 3200mhz Ram | S34E790C @ 3440x1440
Tjejens dator: Define r4 | i5 3570k @ 4.2ghz | GTX Titan | 750w Supernova | 240gb SSD | 32gb ram
Citera/Tagga för svar!

Permalänk
Medlem
Skrivet av Valisk:

@Fulgano:

Haha, jag hör av mig när det blir aktuellt i början på juni då

Toppen! 👍

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Aleshi:

Bortsett från att mellan dem så var det 35-40%. 980 är ju snabbare än 780 Ti. Men då var det dessutom inom samma nod. Nu är det inte bara nodbyte, utan ett rejält ett. Istället för mesiga halvnodshopp eller ens ett ordentligare helnodshopp så hoppar man en och en halv nod. Räkna med minst 200% högre prestanda per ytenhet mellan noderna, och bli inte förvånad om vi når 300%.
AMD hoppar samtidigt 2 hela noder. Så det händer rejäla grejer nu.

Dock skiljer det mellan papper och verkligheten. Beror på hur man räknar nm, dock lär just 3D delen göra en hel del. Intel ligger närmare 14nm än samsung/global.

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Yoshman:

Japp, väldigt tjatigt med tanke på att webbplatser som t.ex. Guru3D visat att när man kommer nära och passerar 4 GB VRAM så uppför sig 970 och 980 extremt snarlikt. Sedan blir det nästan lite komiskt när andra tester visar att i praktiken har 290/290X/Fury problem med vissa nyare titlar som använder väldigt mycket VRAM, ett problem som inte 390/390X har men inte heller 970 (inte ens 780Ti med 3 GB uppvisar problem)!

Ett annat exempel, Fury har spikar som inte finns på 390, 970 eller 980.

Tittar man på "allokerad mängd VRAM" så verkar spel definitivt kunna använda 4 GB i 970, frågan är varför 290 inte verkar vilja använda mer än 3,6 GB när 390X suger i sig 6,1 GB med samma inställningar. Nästan som man undrar vem som egentligen här ett VRAM-problem...

Och det har var att göra med det jag sa?

Jag sa att hårdvaran är samma. Segmenterat är hur den är designad och 970 är 3,5GB + 0,5GB, hur mycket du än babblar på. Nvidia kan styra detta i drivrutiner dock, men det ändrar inte hårdvaran.
Om de då dubblerar minnesmängden så blir det 7GB + 1GB.

Eller håller du inte med att det blir exakt så, tekniskt sett? Tjatigt eller inte.
Sen att 7GB räcker mer än väl är en helt annan sak, ser det inte som något negativt där.

Du har börjat gå från en datavetare till en konstig Nvidia Fanboy som ska hitta ursäkter på alla fel dessa kort har. Man kan säga att du älskar att hitta udda tester som görs på specifika drivare, spel och i specifika situationer, inte för att framhäva din sak, utan trycka ner motståndaren... Det är fanboy tänk min vän Nvidia styr sin minnesanvändning betydligt bättre, ingen tvekan om det.

Ändå så vinner 390 korten vs 970 i högre upplösningar i många moderna spel, där i praktiken mer VRAM är till nytta... så din poäng är? Du verkligen letar halmstrån...

Men visst. AMD skulle behöva jobba på minneshanteringen. Inga argument där.

Skrivet av Yoshman:

Om det är samma prestanda som 970/980 lär de nya kortet knappast få någon nytta av den extra bandbredden med GDDR5X, enda Maxwell-kortet som verkar strypt av VRAM-bandbredd är 960. Däremot finns en annan fördel med GDDR5X: strömförbrukningen är väldigt beroende på frekvensen minnet kör på, med GDDR5X kan man därför använda en lägre frekvens och ändå få minst lika hög bandbredd som GDDR5.

Sedan ligger nog 970/980 rätt nära kapaciteten för VRAM-bandbredd, så om de nya kretsar är 30-40 % snabbare eller mer så behövs mer bandbredd för att undvika en flaskhals där.

Så har dessa superklockade korten problem eller inte?

960 har jag inte dragit in, både för artikeln handlade inte om det, och för att jag vet att den har det problemet.

Sen att de kan få ner förbrukningen är väl ingen tvekan om, men hur är det med priset? Folk skrek gala på mig när jag vilel se HBM, för det kostar... nu ska man lägga till nyare moduler (som definitivt inte kommer vara billigare än GDDR5) och öka kostnaden, och plötsligt så ko-vänder du i din kommentar och åsikt? Vill de få ner förbrukningen mer än marginellt, ta HBM...

Som sagt, vi vet inget om de nya kretsarna, alls. Men visst logiskt bör de vara snabbare. Är det dock en-rebrand så kan du glömma 40%... Får se vad Nvidia gör helt enkelt.

Skrivet av Yoshman:

Angående DX12: den absolut största nyheten med DX12 är lägre "CPU-overhead" samt långt bättre möjligheter för utvecklare att utnyttja flera CPU-kärnor på ett effektivt sätt. Alla GPUer som fått DX12 (och Vulkan) stöd har fått dessa fördelar, dock är dagens GPUer inte starka nog att göra de snabbare Intel CPUerna till flaskhalsar så rent praktiskt har inte detta gett mer prestanda utan man får bara med "idle" tid på sin CPU. Detta syns väldigt väl i Ashes of the Singluarity, även om det är samma prestanda med DX11 som DX12 på Nvidias kort är CPU-användningen signifikant lägre med DX12.

Huruvida async compute finns eller ej har i praktiken noll påverkan på vilka funktioner man kan använda i DX12, vinsten för de kort som stödjer detta är möjlighet till bättre prestanda. De få fall som existerar så här långt pekar på att GCN1.1 verkar se störst vinst, upp till 20 % boost i Ashes of the Singularity och upp till 10 % boost i Hitman. GCN1.2 får något mindre medan GCN1.0 kortet i princip inte får någon vinst alls. Även med 20 % så är det knappast något som signifikant ändrar något, vissa Nvidia kort är ju fabriksöverklockade 20 % så de får motsvarande boost i alla titlar där kapacitet i GPU-delen är flaskhals (jämfört med "referens").

Så vad du säger är mer ursäkter i hopp om att ingen ska se problemet med Maxwell. Det du säger är att om någon har köpt en "skit version" från Nvidia, och inte super-överklockad version, så kommer ni halka efter. Kanon bra det där Vill du kanske kolla vilken frekvens AMD korten kör stock i tester också? Du kan jämföra det med mina fabriks OCade...

Sen bör du nog titta på dina 20% igen.. för som jag sa, ni räknar från Stock till turbo, inte från Nvidias turbo till er turbo. Och det är långt i från alla tillverkare som har dessa nivåer, mer ofta är det 5-10% mer, vilket såklart hjälper, men det är inga 20%.. inte ens nära.

Ang GCN1.0 så tror jag @sesese sa det bättre: #16013659
"7970 337% snabbare än 680 i 4K

7970 har endast 3 bps upp till 970 så frågan är kan ett AMD 7970 kort från 2012 bli snabbare är näst snabbaste kort från Nvidia 2016 i DX12???"
Hur går det för 680 korten som 7970 och GCN1.0 var riktade mot igen?
Tror du får omvärdera dina %...

Lustigaste var dina kommentarer om just Ashes of the Singularity, där du klart säger:
"Helt klart är DX12/Vulkan en bättre teknik för framtiden, men dagens GPUer verkar inte vara tillräckligt snabba för att CPU-delen ska vara någon större flaskhals ens med DX11 (i alla fall inte med Nvidia drivare)."

Så nu plötsligt så behöver vi Nvidias lägre CPU last? Det som du framhävde i citatet ovan... är det relevant eller inte, för du säger emot dig själv. M.a.o. Nvidia tjänar inget som det ser ut idag, på DX12. De snarare med dagens drivare och flertalet spel, förlorar på det.

Du själv har sagt:
"Sedan har Nvidia sagt att man ännu inte färdigställt "async compute" för Maxwell gen 2. Från AnandTech", med länk och allt.
Sen lagt till: "Är dock fortfarande skeptisk till att "async compute" kommer göra speciellt mycket för Maxwell, man kanske kan komma till punkten att det inte blir negativt i alla fall Känns ju som det är något större hinder som Nvidia stött på med tanke på att man inte ens vill ge en vink om när detta stöd kan dyka upp."

Så jag vill säga att Maxwell är en DX12 flopp... där de i bästa fall handlar om att inte tappa prestanda, inte att vinna något. Kort sagt, Maxwell är så långt ifrån framtidssäker som man kan komma, då där finns inget att vinna som det ser ut nu iaf.

Sen har du själv sagt att AotS ska vara ett specialfall, som inte sker annars. Något som dock verkar ske på samtliga spel jag ser hittills. Kanske inte i den "perfekta nivån", men Hitman tex är definitivt inte ett RTS-spel iaf. Behövs fler spel och fler tester, helt klart, men jag har som sagt inte sett ett enda positivt DX12 resultat för Maxwell iaf, som påverkar en desktop PC spelare.

Så det som skrämmer mig är hur denna "datavetare" som envisas om att citera mig, fortfarande jagar google sökningar efter tester där 970/980 Maxwell inte suger i DX12. Istället för att titta på DX12 mer objektivt och är lite fundersam till varför Nvidia inte slår på en enorm trumma för det. Detta speciellt om du nu ska vara fanboy neutral som du vill framstå.

Nvidia verkar nästan göra allt de kan för att ignorera DX12. Som det är nu så verkar det vara det enda som är positivt med Nvidias kort... att just DX12 i sig själv är långt från optimalt.

Vi får se, men du kan ge dig attan på att varenda en av dessa kommentarer kommer att länkas och hånas om nu Nvidia gör bort sig med DX12 när dessa nya kort släpps då du framhäver saker som du sen säger emot själv några månader senare. DX12 gör iaf ingen positiv verkan för slutkunden idag på Nvidia kort, snarare tvärt om. Minskad CPU användning är bra, ja, men du bör nog kolla på hur AMD korten påverkas där också, då de båda får bättre CPU användning pga hur DX12 trådar bla.

Oavsett så vet vi både alldeles för lite om framtida kort för att mer än spekulera där, mer än hur Nvidia och AMD agerar mot DX12. AMD gasar... Nvidia bromsar eller iaf går på tomgång. Vad säger det om Nvidias tro på det?

Permalänk
Medlem
Skrivet av Christley:

ja, men nu ska ju x80ti kommer redan till sommaren enligt en av swecs källor. inte till i vintern. det betyder högst troligen att x80ti inte kommer att ha hbm2

Nej, enligt en källa - motstridig till de andra - så kunde en ersättare till 980Ti komma. Jag har redan behandlat detta, efterföljaren till GTX 980 kommer antagligen ha prestanda nog för att ersätta 980Ti, men det är inte efterföljaren till 980Ti.

Permalänk
Medlem
Skrivet av Broken-arrow:

Dick skiljer det mellan papper och verkligheten. Beror på hur man räknar nm, dock lär just 3D delen göra en hel del. Intel ligger närmare 14nm än samsung/global.

Skickades från m.sweclockers.com

Teoretiskt är det över 300% för nVidia och 400% för AMD bara sett till nodkrympningen. Sedan har vi de ökade frekvenserna som oftast följer. Då tycker jag att det är ganska försiktigt att lova 200% med möjligheten att nå närmare 300% framöver. AMD har redan på 28nm 15% fler transistorer per mm² än nVidia. Sedan får du lägga till arkitekturförbättringar som sägs ge en hel del i åtminstone AMDs fall.

Så, nej, 200% med 300% senare under noden är inte papperssiffror.
Papperssiffror hade kanske varit 422% för nVidia och 500% för AMD.
nVidia = 15%-utrymmet * nod * frekvens = 100*1.15*3.06*1.2= 422%
AMD = nod * frekvens = 100 * 4 * 1.25 = 500%

Har räknat högre frekvensbonus på AMD då de går ner längre i noden och dessutom inte pressat 28nm lika hårt på den punkten. Och då har jag inte räknat in arkitekturförbättringar ens i dessa papperssiffror.

Så ja, skillnad på papper och verklighet. Men 200% extra prestanda i början av noden och upp mot 300% innan noden är slut är inte papperssiffror, det är rent av ganska försiktiga gissningar.

Papperssiffror för 40nm mot 28nm är 43%. Ska vi jämföra GTX 580 mot Titan X eller 6970 mot Fiji?

Permalänk
Datavetare

@Paddanx: så denna kommentar

"Men om det nu är samma krets, så lär den ha samma minnessegment, vilket gör att 1070 lär bli 7GB snabbt, 1GB långsamt, om de bara "dubblerar" mängden på kretsnivå, med samma kontroller."

gjordes alltså helt utan att insinuera att det skulle finnas något praktiskt problem med designen? Mitt svar i det här fallet var väldigt mycket en ren reaktion på att det skrivits så mycket svammel om alla problem som man "hört att någon" haft, fast ingen kan peka på ett faktiskt test som kan reproducera problemet.

Om det var ett torrt konstaterande, varför slog du då inte också fast att AMDs kort också har sitt VRAM uppdelat i segment om 1 kB där varje sådan segment endast har 1/16 del hos 390/390X och endast 1/256 del hos Fury X av den bandbredd som listas i specifikationen. Är det irrelevant för användarna? Ja, det är totalt irrelevant! Men det har även segmenteringen hos 970 visat sig vara så varför nämna det om syftet inte var att insinuera att designen dras med praktiska problem?

Angående DX12: vad vill du att jag ska skriva? Att den 10-20 % högre prestanda är skillnaden om ett kort suger på DX12 eller inte? Inte ens AMD själv försöker hävda att man kan förvänta sig speciellt mycket mer, tror de sagt något om att upp mot 30 % boost är möjligt i vissa lägen. Och ur ett funktionellt perspektiv är "beräkningskön/köerna" en funktionell delmängd av grafikkön, om nu "async compute" inte fungerar ihop med grafik på Maxwell (vilket verkar allt mer troligt då Nvidia inte säger något, Maxwell har "async" stöd när man kör CUDA fast då handlar det endast om beräkningar) så är det enda rimliga för speltillverkarna att posta de saker som på GCN går till en beräkningskö på grafikkön i Maxwell. Slutresultatet som visas på skärmen blir i båda lägena det samma.

Och du läste då totalt inte vad jag skrev om Ashes. Med DX11 är det GPU-delen som till 100 % är flaskhals om man har en modern Intel CPU, även om man sitter på 980Ti. Om man däremot jämför hur mycket CPU som används i DX11 och DX12 så är det mindre med DX12 och denna lägre "overhead" är huvudnumret för DX12. Att det sedan i detta spel inte gör någon som helst skillnad för FPS beror ju på att GPU-delen ändå är flaskhals i båda fallen. Ser inte hur detta kan vara oklart på något sätt.

AMD har också putsat på drivarna för AotS, det i princip inte längre skillnad i FPS mellan DX11 och DX12 när man kör med 380/380X. Precis som för Nvidia är GPUn flaskhals i båda lägen, fast CPUn är mindre lastad i DX12 vilket visar att DX12 gör nytta (i framtiden kan spel använda denna överblivna CPU kraft till något användbart i spel).

Var inte så bitter, det är första april så ta inte något som skrivs allt för seriöst idag

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Paddanx

Du nämner här i tråden och andra att du inte vet något om den nya kretsen från varken Nvidia eller AMD, då är min fråga varför du talar om rebrands och att det ska vara samma krets som GM104 i samma andetag?