Geforce GTX 870 visar första livstecknet i kinesiska skärmdumpar

Permalänk
Avstängd
Skrivet av Patan77:

Hoppas dom lanserar 20nm 900 serien i februari, 800serien verkar ganska tråkig.

Är knappast troligt.. Q4 2015 är ett betydligt mer troligt datum.

Skickades från m.sweclockers.com

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Skrivet av Sveklockarn:

With GM107 in particular being a 128-bit design that would need to compete with the likes of the 192-bit GK106, NVIDIA has massively increased the amount of L2 cache they use, from 256KB in GK107 to 2MB on GM107. This reduces the amount of traffic that needs to cross the memory bus, reducing both the power spent on the memory bus and the need for a larger memory bus altogether.

http://www.anandtech.com/show/7764/the-nvidia-geforce-gtx-750-ti-and-gtx-750-review-maxwell/3

Alla tycks stirra sig blinda på att få många bitar/watt/hertz/bogomips, utan att reflektera över att det kanske finns andra faktorer som spelar större roll för prestandan. Det hela påminner ganska mycket om trådarna om nätdelar på forumet, där många gått på tillverkarnas marknadsföring om att man behöver en nätdel på minst 6-700W för att klara att driva ett diskret grafikkort.

Jag stirrar inte. Bara en rolig jämförelse.
Om du läser så skrev jag: Om man bara tittar på siffror så vill man ju inte ha 870.

OM är en sak som är lika med kanske.

Sen skrev jag: Men nu är det en ny Arkitektur så vi får se där vad som händer.
Du kan ju lista ut själv vad jag menar med det.

Om du tittar vad jag skrev så har 870 GPU 1000 MHz mer och 1000 MHz minne mer en då är 780 bättre.
Sen ligger ju 780 GPU på bara 900 MHz en då är den bättre.

Så för min del så är Minnesbandbredd viktig.

Vi säger så här
Om man har två vatten ledningar med samma vattentryck till två olika kranar.

Kran 1 släpper igenom 10 liter i minuten
Kran 2 släpper igenom 5 liter i minuten

Vilken väljer man ??

Minnesbandbredd 224 GB/s - 288 GB/s = 64 GB/s Mer är mycket.

Permalänk
Medlem
Skrivet av asard1212:

Jag stirrar inte. Bara en rolig jämförelse.
Om du läser så skrev jag: Om man bara tittar på siffror så vill man ju inte ha 870.

OM är en sak som är lika med kanske.

Sen skrev jag: Men nu är det en ny Arkitektur så vi får se där vad som händer.
Du kan ju lista ut själv vad jag menar med det.

Om du tittar vad jag skrev så har 870 GPU 1000 MHz mer och 1000 MHz minne mer en då är 780 bättre.
Sen ligger ju 780 GPU på bara 900 MHz en då är den bättre.

Så för min del så är Minnesbandbredd viktig.

Vi säger så här
Om man har två vatten ledningar med samma vattentryck till två olika kranar.

Kran 1 släpper igenom 10 liter i minuten
Kran 2 släpper igenom 5 liter i minuten

Vilken väljer man ??

Minnesbandbredd 224 GB/s - 288 GB/s = 64 GB/s Mer är mycket.

Men du jämför kort med olika antal kärnor. ***bort/moderator***

Och din kranjämförelse är riktigt dum. Spelar ingen som helst roll att minnesbandbredden är sämre om totalprestandan blir högre. Jämför 7970GHz med GTX 680. 7970GHz har 50% högre bandbredd men är bara någon enstaka procent snabbare, och det först efter uppdaterade drivrutiner. 7950 är långsammare än GTX 680 men har ändå 25% högre bandbredd.

språkpolis §1.6
Permalänk

Bara att vänta på 20nm inte så mycket nytt här inte.

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Medlem
Skrivet av Swedish Berserk:

Bara att vänta på 20nm inte så mycket nytt här inte.

Energisnålare, mer prestanda, fullt stöd för DX12 (vilket nuvarande 700-serien inte har). Mycket beror ju faktiskt på vad man har idag.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Inaktiv
Skrivet av cardeci:

Med 4Gbit 32-bittars GDDR5 kretsar får man ju precis 4Gbyte om man kopplar in dem på sin 256-bittars buss.

Det är rätt optimalt.

Och folk som jag som kör lowres (2560x1440 eller lägre) lär inte få några större problem med de flesta spel som finns nu, med tanke på hur extremt mycket mindre bandvidd en av de två konsollerna som "next gen" spel görs för nu har.

Hur räknar du ut det?

2560x1440 är knappast lowres, 1680x1050 kanske.

Permalänk
Discokungen
Skrivet av Tumnus:

Är knappast troligt.. Q4 2015 är ett betydligt mer troligt datum.

I'll take that bet! Jag tror de kommer köra en mellanserie med Maxwell i 20nm innan en helt ny arkitektur. Och då kommer det förmodligen bli som 500-serien blev för 400-serien, märkbart bättre i det mesta trots att det var samma arkitektur i grunden, om än en hel del ombyggd.

Jag kan ju missa målet med ett par kilometer också, vi får se! Jag tycker det är trevligt att Nvidia har börjat fokusera på prestanda per Watt de senaste åren. Nu börjar AMD få det lite jobbigt på den punkten när det var precis tvärtom vid 4-500-serien.

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Medlem

Nu vill jag veta när grafikkort med GM200 kommer. GTX 870/880 ser inte ut att riktigt få den prestanda jag är ute efter. Men med rätt pris och ljudnivå kanske jag köper ett i alla fall.

Visa signatur

Intel i7-3770K@4,5GHz 1,275V - ASRock P67 Pro3 REV B3 - Corsair Vengeance Pro DDR3 2133MHz 2x8GB - MSI GTX 1080 Gaming X - Samsung 840 EVO 120GB - WD Caviar Black 6TB - Seagate SV35 2TB - Noctua NH-C12P SE14 - LG DVD+-RW - Seasonic Focus+ Gold 750FX - Antec One Hundred - Dell 25" UltraSharp U2515H 1440p

Permalänk
Medlem
Skrivet av Zotamedu:

Det finns en rätt tydlig koppling mellan prestanda och strömförbrukning när det kommer till grafikkort. Toppsegmentet har länge varit kraftigt begränsat av kylningen som i sin tur är samma sak som strömförbrukningen. Någonstans runt 300 W är allt som realistiskt kan kylas i den formfaktorn. Så AMD och Nvidia har försökt pressa in så mycket prestanda som möjligt inom den ramen, det är inte så att de designar för så mycket prestanda som möjligt utan de designar för så mycket prestanda på 300 W som möjligt.Så om de kan sänka strömförbrukningen så kan man få mer prestanda på köpet. De kommer inte sänka strömförbrukningen på toppkorten, de kommer pressa in mer prestanda på samma strömförbrukning. Så vill du ha mer prestanda borde du vara glad över att de kan pressa strömförbrukningen.

Ok, då låter det som en bra idé att fortsätta att sänka strömförbrukningen för grafikkort, för att hålla sig inom 300W gränsen. Annars kan man väl göra en formfaktor som är större i storleken? Så slipper man hålla sig runt 300W.

Hursomhelst antar jag att det finns fler exempel på där det ständigt måste till lägre strömförbrukning för att också kunna höja prestandan, men det känns som om strömförbrukningen ofta prioriteras nu för tiden framför prestanda, t.ex. i Intels desktop-processorer, och i många andra fall, och det tycker jag är trist.

Allt ska ju också vara så kompakt och mobilt idag, till vilken egentlig nytta fattar jag inte.

Sen finns det ju andra delar av elektronikbranschen där det behövs större storlek och högre strömkapacitet för maximal prestanda, t.ex. i hifi-branschen där det verkligen behövs för att få till riktig kvalitét och prestanda.

Visa signatur

Mobo: Asus X470 Crosshair VII Hero *** CPU: AMD Ryzen 7 2700X *** RAM: 32Gb G.Skill TridentZ 2933Mhz *** PSU: Seasonic 850W Focus+ Platinum *** GPU: Gigabyte RTX2080 Gaming OC *** SSD: Samsung 860 EVO 2 TB *** Chassi: Fractal Design Define R6 TG Svart *** Tangentbord: Ducky One 3 Daybreak MX Clear *** Mus: Logitech Pro X Superlight *** Skärm: Alienware AW3821DW

Permalänk
Entusiast
Skrivet av waverider:

Ok, då låter det som en bra idé att fortsätta att sänka strömförbrukningen för grafikkort, för att hålla sig inom 300W gränsen. Annars kan man väl göra en formfaktor som är större i storleken? Så slipper man hålla sig runt 300W.

Hursomhelst antar jag att det finns fler exempel på där det ständigt måste till lägre strömförbrukning för att också kunna höja prestandan, men det känns som om strömförbrukningen ofta prioriteras nu för tiden framför prestanda, t.ex. i Intels desktop-processorer, och i många andra fall, och det tycker jag är trist.

Allt ska ju också vara så kompakt och mobilt idag, till vilken egentlig nytta fattar jag inte.

Ja i teorin kan man designa om formfaktorn för att underlätta kylningen men det är en rätt stor process. Det är många som ska med på den nya standarden. AMD, Nvidia, alla moderkortstillverkare, chassitillverkarna och så vidare.

Ja ett annat högrelevant exempel är surfplattor och mobiltelefoner. Surfplattor har ju den kända 5 w-gränsen som är en gyllene tumregel för hur mycket man kan kyla passivt i en platta. Så där ligger prestandagränsen. Jag är har själv problem med min Galaxy Nexus. Prestandan är fullt tillräcklig för allt jag gör men inte så länge. Efter 10 minuter är den överhettad och nerklockad så spel och tyngre appar laggar.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av waverider:

Ok, då låter det som en bra idé att fortsätta att sänka strömförbrukningen för grafikkort, för att hålla sig inom 300W gränsen. Annars kan man väl göra en formfaktor som är större i storleken? Så slipper man hålla sig runt 300W.

Hursomhelst antar jag att det finns fler exempel på där det ständigt måste till lägre strömförbrukning för att också kunna höja prestandan, men det känns som om strömförbrukningen ofta prioriteras nu för tiden framför prestanda, t.ex. i Intels desktop-processorer, och i många andra fall, och det tycker jag är trist.

Allt ska ju också vara så kompakt och mobilt idag, till vilken egentlig nytta fattar jag inte.

Sen finns det ju andra delar av elektronikbranschen där det behövs större storlek och högre strömkapacitet för maximal prestanda, t.ex. i hifi-branschen där det verkligen behövs för att få till riktig kvalitét och prestanda.

Finns faktiskt grafikkort som går över 300Watt gränsen. Det är dualgpu kort från partnertillverkarna. Men då får man både ha bra moderkort (med extra ström kontakter) och rätt kraftigt agg. Kan vara lite på gränsen när det gäller moderkortet dock.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av waverider:

Ok, då låter det som en bra idé att fortsätta att sänka strömförbrukningen för grafikkort, för att hålla sig inom 300W gränsen. Annars kan man väl göra en formfaktor som är större i storleken? Så slipper man hålla sig runt 300W.

Hursomhelst antar jag att det finns fler exempel på där det ständigt måste till lägre strömförbrukning för att också kunna höja prestandan, men det känns som om strömförbrukningen ofta prioriteras nu för tiden framför prestanda, t.ex. i Intels desktop-processorer, och i många andra fall, och det tycker jag är trist.

Allt ska ju också vara så kompakt och mobilt idag, till vilken egentlig nytta fattar jag inte.

Sen finns det ju andra delar av elektronikbranschen där det behövs större storlek och högre strömkapacitet för maximal prestanda, t.ex. i hifi-branschen där det verkligen behövs för att få till riktig kvalitét och prestanda.

Men trots fokuset på energieffektivitet så har vi processorer på 140W eller mer från både AMD och Intel. Innan Intel gick in helhjärtat i energieffektivitet så satt de med P4 som var usel, den får Bulldozer att framstå som ett under av energieffektivitet och IPC. Samtidigt hade de sina processorer som fokuserade på energieffektivitet, som ofta var snabbare än P4 trots att de drog en femtedel så mycket ström, så då tog man dem och skalade upp prestandan och släppte Core 2 som var mycket starkare än P4. Sedan dess har man kört på mottot att för varje 2 procent en designförändring ökar prestandan så får den endast öka värmeutvecklingen 1 procent. Hade de inte följt den regeln så tror jag inte de hade kunnat ha så snabba processorer på 140W idag som de har.
Sett till GPU:er så är det fokuset på strömeffektivitet som tar dem framåt, det är värmen som håller dem tillbaka hela tiden. Du tycker det är för mycket fokus på energieffektivitet. Men ändå pressar vi 300W idag. Utan detta hade vi inte haft samma prestanda idag helt enkelt. Jämför över arkitekturgenerationer hur mycket ett kort drar, GK110 - GF100 - GT200 - G80 - G70 - NV40 - NV30 - NV25. Trenden är bergsfast mot varmare kort trots fokus på energieffektivitet.

Så, du behöver inte vara orolig för prestandan. Säger en tillverkare att de dubblerar energieffektiviteten nästa generation så kan man se fram emot prestandan.

Permalänk
Medlem
Skrivet av Aleshi:

Men trots fokuset på energieffektivitet så har vi processorer på 140W eller mer från både AMD och Intel. Innan Intel gick in helhjärtat i energieffektivitet så satt de med P4 som var usel, den får Bulldozer att framstå som ett under av energieffektivitet och IPC. Samtidigt hade de sina processorer som fokuserade på energieffektivitet, som ofta var snabbare än P4 trots att de drog en femtedel så mycket ström, så då tog man dem och skalade upp prestandan och släppte Core 2 som var mycket starkare än P4. Sedan dess har man kört på mottot att för varje 2 procent en designförändring ökar prestandan så får den endast öka värmeutvecklingen 1 procent. Hade de inte följt den regeln så tror jag inte de hade kunnat ha så snabba processorer på 140W idag som de har.

Pentium 4 lanserades säkerligen 10 år innan Bulldozer, menar du att det är bättre av AMD att göra om samma misstag 10 år senare än att lära sig av vad Intel redan gjort? AthlonXP hade otvetydligt övertaget i energieffektivitet på sin tid, TDP-skillnaden mellan 3200+ och P4-3.20 var emellertid endast 20%. Sedan tog Intel över och det har sett likadant ut sedan första Core-processorn släpptes. Core är för övrigt en helt egen processorserie, tror det är Pentium D du tänker på när du relaterar till P4 i grunden.

De flesta high-end-CPU:er från Intel drar för övrigt inte ens i närheten av 140W idag, förmodligen inte ens relativt hårt överklockade. i5 4670k har en TDP på 65W och i7 4770k på 84W. Vassaste CPU:n, 4960X, drar 130W. Med AMD är det däremot en helt annan historia (t.ex. 220W för FX-9590).

Visa signatur

i7-3930K @stock | Fortfarande tillräcklig, slänger ut Windows nästa år

Permalänk
Medlem
Skrivet av Q4Rspwn:

Pentium 4 lanserades säkerligen 10 år innan Bulldozer, menar du att det är bättre av AMD att göra om samma misstag 10 år senare än att lära sig av vad Intel redan gjort? AthlonXP hade otvetydligt övertaget i energieffektivitet på sin tid, TDP-skillnaden mellan 3200+ och P4-3.20 var emellertid endast 20%. Sedan tog Intel över och det har sett likadant ut sedan första Core-processorn släpptes. Core är för övrigt en helt egen processorserie, tror det är Pentium D du tänker på när du relaterar till P4 i grunden.

De flesta high-end-CPU:er från Intel drar för övrigt inte ens i närheten av 140W idag, förmodligen inte ens relativt hårt överklockade. i5 4670k har en TDP på 65W och i7 4770k på 84W. Vassaste CPU:n, 4960X, drar 130W. Med AMD är det däremot en helt annan historia (t.ex. 220W för FX-9590).

För det första så är P4 och Bulldozer helt olika konstruktioner, så man kan inte säga att det är samma misstag. Och den faktiska skillnaden i effektförbrukning var mycket större då. P4 som i praktiken drog långt över 125W (runt 180W uppmätt) var jämnsnabb med Athlon XP som i praktiken drog ner mot 30W när det var som värst. Sedan är väl FX-9590 mest en ploj. Lite som Quadfather.

Permalänk
Medlem
Skrivet av Aleshi:

För det första så är P4 och Bulldoxer helt olika konstruktioner, så man kan inte säga att det är samma misstag.

Är inte Pentium 4 och AthlonXP också det?

Skrivet av Aleshi:

Och den faktiska skillnaden i effektförbrukning var mycket större då. P4 som i praktiken drog långt över 125W (runt 180W uppmätt) var jämnsnabb med Athlon XP som i praktiken drog ner mot 30W när det var som värst. Sedan är väl FX-9590 mest en ploj. Lite som Quadfather.

Missade helt det här så får ta mig friheten att bumpa.

AthlonXP 3200+ vs P4 540 3.2 GHz 77W vs. 101W
Athlon64 3200+ vs P4 540 3.2 GHz 84W vs. 101W

Vet inte var du fått dina uppgifter ifrån.

Visa signatur

i7-3930K @stock | Fortfarande tillräcklig, slänger ut Windows nästa år

Permalänk
Medlem
Skrivet av Q4Rspwn:

Är inte Pentium 4 och AthlonXP också det?

Lägg ner tramset. Jag har varken sagt eller antytt att de är samma konstruktion. Jag poängterade bara att man inte kan säga att det är samma misstag i Bulldozer som i P4, de hade olika lösningar och olika misstag lede till det liknande resultatet med att processorerna inte blev så lyckade.

Skrivet av Q4Rspwn:

Missade helt det här så får ta mig friheten att bumpa.

AthlonXP 3200+ vs P4 540 3.2 GHz 77W vs. 101W
Athlon64 3200+ vs P4 540 3.2 GHz 84W vs. 101W

Vet inte var du fått dina uppgifter ifrån.

Angående värmeutvecklingen kan jag säga på en gång att det blev lite fel där, tänkte främst Winchester mot Prescott. Alltså inte Athlon XP. P4 drog först så mycket kräm under Prescott-tiden. Hittar inte tester där Winchester jämförs längre, var ju en tid sedan, men här har vi Venice mot Prescott, Venice är runt 20% törstigare än Winchester. http://techreport.com/review/8327/amd-athlon-64-3800-venice-p...
96W skillnad mellan 3800+ och 3,73XE, med tanke på att övriga systemet drar en bit över 100W så är det en del mer än 20%. Sedan kan man ha i åtanke att 3800+ var duktigt mycket snabbare än P4 XE i spel.
Här har du Winchester mot Venice. http://www.xbitlabs.com/articles/cpu/display/athlon64-venice_...
Notera också att jag sa "när det var som värst". Men även när det inte var som värst så var skillnaderna långt större än några 20%.

Angående XP-tiden så är det väldigt ont om mätningar på effektuttaget på T-Bred mot P4 på nätet, så det är svårt att hitta idag, men T-bred drog i praktiken ner mot 30W, TDPn var på 45W för min 1700+. Min Barton 2500+ hade en TDP på 35W.