Nvidia Geforce "GP104" med GDDR5 och GDDR5X på bild

Permalänk
Medlem
Skrivet av Mocka:

Intressant tankesätt men känns det inte lite onödigt att släppa något som knappt är bättre än föregående generation?

Det kommer vara bättre Perf/Watt och bättre pris/prestanda. Titan X är om man får tro Sweclockers fortfarande tänkt att säljas som toppkortet och då kan omöjligt GTX 1080 vara bättre. Det känns helt diffust förutsatt att Titan X är tänkt att fortsätta säljas.

Sen blir det en ökning egentligen om man jämför GTX 1080 mot GTX 980 vilket är kanske det mest rättvisa. Att GTX 980 Ti försvinner känns mer som en konsekvens av att det kortet blir överflödigt.

Jag hoppas jag har fel för jag hade gärna sett en riktig ersättare till 980 Ti men det kommer knappast nu.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem
Skrivet av macke0010:

Jag förstår inte logiken i att krympa minneskapslarna, en mindre yta resulterar ju i en sämre bortledningsförmåga av värme och därav en lägre clock. Jag förstår att gddr5x, redan som det är, förmodligen kommer vara mera effektiv med högre klock än gddr5, men vore det inte bättre att göra minneskapslarna lite större och på så sätt tillåta en "extremklock"?

Skrivet av Fluff3:

Mindre yta ger fler chip per wafer fler chip betyder mera pengar. Ingen egenskap som slår mera pengar.

Samma anledning som gör att för varje gen som folk väntar på "billigare" SSD, så blir också kretsarna under dem ofta sämre.

Det man dock kan göra för att kompensera är att trycka in fler kretsar på samma yta, sänka spänningen och förhoppningsvis (i teorin) få en större/snabbare produkt som klockar "typ samma", vilket i realiteten gör mer lagring per chip, eller mer prestanda i samma klock. Alt så kan du satsa på mer energieffektivitet, vilket är vad många gjort på senaste.

I slut ändan så är dock girigheten till $€£ roten till både utveckling och till ondskan bakom hindren till den.

Skrivet av FredrikMH:

Nu känns det som det kommer bli så här:
GTX 1080 - presterar +0-10% över 980ti med pris på ca 5500kr
GTX 1070 - presterar +0-10% över 980 med pris på närmare 4000kr

När man först fick höra om Pascal och att det skulle vara ny arkitektur, dubbel krympning och HBM2 så såg man monsterkort framför sig. Dessa kommer ju inte komma förrän i vinter och all den tekniken dröjer till nästa generation innan det börjar leta sig ner i "mainstream".

Men för de som letar efter ett prisvärt kort med 980 TI-prestanda och som har extremt bra Perf/Watt kommer ju ha flera tänkbara kort att köpa när hösten närmar sig. Förövrigt känns det som AMD ungefär gör något liknande även om jag hoppas de lyckas bättre.

Med härledningen ovan så har du svaret på varför det troligen blir något sånt. Nvidia vill inte sälja dig det bästa de har. Om de har 50% snabbare GPU, så säljer de dig först en 22% snabbare, för högt pris, som sakta sjunker.
När konkurrens kommer, eller om försäljningen avtar så släpper man den "nya" GPUn med ytterligare 22% och först då får du din 50% snabbare krets. Det är ren vinst för dem.

I detta fallet dock, så är det troligen HBM2 som ligger och spökar. Men om det endast var det som var problemet, så hade inte GDDR5 använts i denna gen, utan samtliga här hade iaf haft GDDR5X

Permalänk
Medlem
Skrivet av voidkahn:

Dataöverföringen mellan GPU och VRAM skulle bli slöare. Moderkorten skulle bli ännu mer fragmenterade eftersom vissa behöver stödja blandningar av antingen intel-nvidia eller intel-amd, amd-amd, amd-nvidia eller helt enkelt utan stöd för GPU. Om bara amd-amd är tillåtet så hade det varit ju kaos. Lägg till blandningar av olika typer VRAM, RAM.
Mer komplicerat att kyla av. Listan är nog väldigt lång men den största anledningen skulle jag säga att dataöverföringshastigheten mellan CPU och GPU är inte lika kritisk som mellan GPU och VRAM. Jag hittar ingen källa för detta men jag är ganska säker på att man inte skulle lyckas få samma överföringshastigheter. Men någon mer kunnig får bekröfta/motbevisa detta.

Hmm. Helt utanför "landet" är dock inte tanken. Vi har haft iGPU länge, och de begränsas som du säger, av just RAM prestandan. Men även CPUer idag behöver rätt mycket minnesbandbredd, där tom DDR3 1600 verkar vara för klent för en OC SB 2500k.
Just AMD visade ju att deras iGPU har bra med kraft, där hindren ligger i minnet.

Men samtidigt så håller jag med att det skulle bli komplicerat att göra. Dock inte så komplicerat som du säger ovan, eftersom redan idag sker allt mot standarder. Samma DDR3/GDDR5 sätts i både AMD/Intel och AMD/Nvidia enheter. XboxOne är också ett ex på hur man kan lösa det med DDR3 till grafik, genom ett snabbt buffert minne. Och resultaten på Broadwell spel visar också att just spel, älskar dessa buffrar. Med Skylake och troligtvis kommande Kabylake så kan denna cachen användas på ett helt annat sätt dessutom, vilket gör att buffrar kan vara lösningen på flaskhalsarna idag, istället för mer dyrt minne.

Så i teorin borde man kunna göra en GPU och en CPU med typ HBM2 "buffert minne" på nån GB, på vardera substrat. Sen sätta 32GB+ minne på ett dotterkort kopplat till moderkortet. Problemet är kostnaden vs vinsten...

Permalänk
Medlem

@PV52: Man får ju hoppas att dom inte parar ihop en GPU som inte drar nytta av hbm minne. Sen när det lanseras är en annan femma.

Permalänk
Medlem
Skrivet av Paddanx:

Hmm. Helt utanför "landet" är dock inte tanken. Vi har haft iGPU länge, och de begränsas som du säger, av just RAM prestandan. Men även CPUer idag behöver rätt mycket minnesbandbredd, där tom DDR3 1600 verkar vara för klent för en OC SB 2500k.
Just AMD visade ju att deras iGPU har bra med kraft, där hindren ligger i minnet.

Men samtidigt så håller jag med att det skulle bli komplicerat att göra. Dock inte så komplicerat som du säger ovan, eftersom redan idag sker allt mot standarder. Samma DDR3/GDDR5 sätts i både AMD/Intel och AMD/Nvidia enheter. XboxOne är också ett ex på hur man kan lösa det med DDR3 till grafik, genom ett snabbt buffert minne. Och resultaten på Broadwell spel visar också att just spel, älskar dessa buffrar. Med Skylake och troligtvis kommande Kabylake så kan denna cachen användas på ett helt annat sätt dessutom, vilket gör att buffrar kan vara lösningen på flaskhalsarna idag, istället för mer dyrt minne.

Så i teorin borde man kunna göra en GPU och en CPU med typ HBM2 "buffert minne" på nån GB, på vardera substrat. Sen sätta 32GB+ minne på ett dotterkort kopplat till moderkortet. Problemet är kostnaden vs vinsten...

Fast Xbox one har en minnes buss på 256bitar vs exempel vis i7 på 1150 sockel som 128bitar, så där har du i princip dubbla bandbredden.
Och prestandamässigt är en lite överklockad HD 7770 GHz Edition ungefär samma teoretiska prestanda,
HD 7770 GHz Edition klara sig med 72GB/s (vs 68.3 GB/s för Xbone för DDR3).
Givet vis får xbox one en för del med ESRAM som i princip "ökar" bandbredden genom att Z-buffert samt frambuffert mm ligger i ESRAM:et. Ökningen av "minnes" prestanda är inte att man använder det som "cache" minne utan mer som ett minne med en separat buss.
Texturer och annat skrymmande måste ligga i DDR3 utrymmet på xbox one, efter som det annars inte skulle få plats.
Så ledes kan bandbredden inte vara hur låg som helst till DDR3 i xbox one, detta tvingade dem till ha 256bitars buss på xbox one. (om de kunde komma undan med en smalare buss skulle de ha gjort det, då enhet skulle bli billigare att tillverka)

Tänk då hur mycket bred bus du skulle behöva för att ersätta bussen på exempel vis 980ti med DDR4 (@2400)... typ 8kannaler om man klara sig med halva bandbredden. Och vilken sockel det skulle behövas för GPU! enbart för minne så är det typ +1500pinnar om det ens stoppar...

Visa signatur

"Gravity is a myth, the earth sucks."

Permalänk
Medlem
Skrivet av erixon:

Fast Xbox one har en minnes buss på 256bitar vs exempel vis i7 på 1150 sockel som 128bitar, så där har du i princip dubbla bandbredden.
Och prestandamässigt är en lite överklockad HD 7770 GHz Edition ungefär samma teoretiska prestanda,
HD 7770 GHz Edition klara sig med 72GB/s (vs 68.3 GB/s för Xbone för DDR3).
Givet vis får xbox one en för del med ESRAM som i princip "ökar" bandbredden genom att Z-buffert samt frambuffert mm ligger i ESRAM:et. Ökningen av "minnes" prestanda är inte att man använder det som "cache" minne utan mer som ett minne med en separat buss.
Texturer och annat skrymmande måste ligga i DDR3 utrymmet på xbox one, efter som det annars inte skulle få plats.
Så ledes kan bandbredden inte vara hur låg som helst till DDR3 i xbox one, detta tvingade dem till ha 256bitars buss på xbox one. (om de kunde komma undan med en smalare buss skulle de ha gjort det, då enhet skulle bli billigare att tillverka)

Tänk då hur mycket bred bus du skulle behöva för att ersätta bussen på exempel vis 980ti med DDR4 (@2400)... typ 8kannaler om man klara sig med halva bandbredden. Och vilken sockel det skulle behövas för GPU! enbart för minne så är det typ +1500pinnar om det ens stoppar...

Du kan relativt enkelt köra Quad channel DDR3 (Socket 1156 gör det vill jag minnas). Och de kör 2133 DDR, vilket du kan byta till 2400+ om du så vill, med 4 moduler. DDR4 kommer ju skala till 4000+ utan problem, och med 256-bit quad kanal så är det inte så farligt som du tror. Sen naturligtvis blir det inte 980/Fury prestanda

Men med tanke på att PS4an kör CPUn på GDDR5 RAM, så borde du kunna gå den vägen om du vill. Du har då bara en cache på CPUn som minskar latenserna och sen en bra prefetch (som dagens CPUer faktiskt har).

Så min poäng är inte att det är "enkelt" att göra. Men helt omöjligt är det inte...
Dock tvivlar jag på att det är lönsamt eller vettig väg att gå, precis som du säger

Permalänk
Medlem
Skrivet av Paddanx:

Du kan relativt enkelt köra Quad channel DDR3 (Socket 1156 gör det vill jag minnas).

Nej 1156 har bara dual chanel, delvis 64+64bitar (128) däremot kan man ha flera minnes moduler på samma "bus".
Däremot så använder intels 2011 av quad chanel.

Skrivet av Paddanx:

Och de kör 2133 DDR, vilket du kan byta till 2400+ om du så vill, med 4 moduler. DDR4 kommer ju skala till 4000+ utan problem, och med 256-bit quad kanal så är det inte så farligt som du tror. Sen naturligtvis blir det inte 980/Fury prestanda

Fast 4ch @4000 ~128GB/s i framtiden (vilket DDR4 4000 är) så kommer det vara ganska lågt även för mellan klass grafik.

Skrivet av Paddanx:

Men med tanke på att PS4an kör CPUn på GDDR5 RAM, så borde du kunna gå den vägen om du vill. Du har då bara en cache på CPUn som minskar latenserna och sen en bra prefetch (som dagens CPUer faktiskt har).

Jag skulle tro att GDDR5 är mycket olämpligt att ha på minnes moduler pga hastigheten och ha GDDR5 fast löda på moderkortet istället för Grafikkortet ser jag inte heller någon större fördel med.

Skrivet av Paddanx:

Så min poäng är inte att det är "enkelt" att göra. Men helt omöjligt är det inte...
Dock tvivlar jag på att det är lönsamt eller vettig väg att gå, precis som du säger

Givet vis går det att "utföra" men precis som du (jag kanske är lite mer skeptisk ) tror inte finns några tekninska fördelar eller/och kostnads besparingar tyvärr...

Visa signatur

"Gravity is a myth, the earth sucks."

Permalänk
Medlem
Skrivet av erixon:

Nej 1156 har bara dual chanel, delvis 64+64bitar (128) däremot kan man ha flera minnes moduler på samma "bus".
Däremot så använder intels 2011 av quad chanel.

My bad, tänkte på 1366 som har 3, som sen gick över till 2011. Aja.

Skrivet av erixon:

Fast 4ch @4000 ~128GB/s i framtiden (vilket DDR4 4000 är) så kommer det vara ganska lågt även för mellan klass grafik.

Jag skulle tro att GDDR5 är mycket olämpligt att ha på minnes moduler pga hastigheten och ha GDDR5 fast löda på moderkortet istället för Grafikkortet ser jag inte heller någon större fördel med.

Poängen var ju att du kunde ha minnes instickskort, som kan ha GDDR5 om du så önskar. Skillnaden blir typ att du istället för GPU, sätter in ett "RAM" kort, inte helt olikt hur vi idag sätter in DDR3/DDR4 RAM.

Skrivet av erixon:

Givet vis går det att "utföra" men precis som du (jag kanske är lite mer skeptisk ) tror inte finns några tekninska fördelar eller/och kostnads besparingar tyvärr...

Tror faktiskt att som det är idag är nog det bästa av många kompromisser. Dock är en av de få sätt idag att då upp prestanda, är att få direkt kontakt med PCI-E till CPUn. Så vi behöver hitta något vettigt sätt att få ut prestanda på annat sätt, om du inte vill ha socket 3000 snart.

Grafikkorten förr (även dagens low end Nvidia) kunde ju "swappa" mot PCI-E och RAMet för cache. Så tekniskt sett är det fortfarande fullt möjligt.
Tror dock att HBM2 för iGPU är bättre väg att gå, då det kan ge dig bra prestanda, som i teorin borde kunna användas som rå cache för CPU också. Men ren APU lösning är än så länge inte lika effektivt som separata CPU/GPU lösningar pga man inte har optimerat ett dugg för det.

Men jämför som Windows 2000 och XP med HT CPU. W2k behandlade de båda som 2 separata CPUer, så alla L2 cache "lästes om igen", vilket gjorde extra jobb och ineffektivitet. XP kunde hantera och förstå HT funktionen och använda den bättre. Så optimerad kod gör mycket mer än man tror. XboxOne DDR3 vs GDDR5 i PS4 är ett exempel på detta också.

Skrivet av erixon:

Fast 4ch @4000 ~128GB/s i framtiden (vilket DDR4 4000 är) så kommer det vara ganska lågt även för mellan klass grafik.

XboxOne har gjort något som inte skulle vara möjligt, men naturligtvis så är det inte den mest optimala lösningen på alla sätt. Det som är lite frågande är.. hur hade den blivit om du haft detta 32MB SDRAM och sen GDDR5 eller DDR4 utanpå istället för DDR3?
Så bara för att 128GB/s låter lite, tänk på att det i scenariot ovan skulle vara "cache" RAM, inte huvud minnet för GPUn. HBM2 skulle vara det, med DDR4 som cache. En cache som dessutom CPU direkt bör kunna jobba mot, så du har APU lösning och pot fördelar där.