Premiär! Fyndchans i SweClockers Månadens Drop

Nvidia Geforce "Pascal" GP104 fångas på bild

Permalänk
Avstängd
Skrivet av Oringen:

I 4K verkar det, då 4GB HBM slår 6GB GDDR5

Nej, minnesbandbredden är ingen flaskhals. Nuvarande GPUer är för svaga.

Annars hade inte följande graf sett ut såhär:

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem
Skrivet av Oringen:

I 4K verkar det, då 4GB HBM slår 6GB GDDR5

I vissa fall ja, inte alla. Dock är fury X inte så överklckningsvänlig jämfört med 980Ti. SÅ överklockar man max då hamnar fury X ännu längre bakom

Visa signatur

Dator 1: | i9 9900k | MSI RTX 4080 Ventus 3x OC | ASUS ROG STRIX Z390-F Gaming | Corsair LPX DDR4 32 GB 3200Mhz | FD define S | Samsung 850 EVO 1TB | Samsung 980 NVMe M.2 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 11
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync
Skärm 2: ASUS 27" TUF VG27AQ1A 1440p @ 170Hz/IPS/G-Sync/HDR

Permalänk
Medlem

Varför är källan 404? Kom redaktionen på att den var fake?

Visa signatur

Dator 1: | i9 9900k | MSI RTX 4080 Ventus 3x OC | ASUS ROG STRIX Z390-F Gaming | Corsair LPX DDR4 32 GB 3200Mhz | FD define S | Samsung 850 EVO 1TB | Samsung 980 NVMe M.2 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 11
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync
Skärm 2: ASUS 27" TUF VG27AQ1A 1440p @ 170Hz/IPS/G-Sync/HDR

Permalänk
Master of Overkill
Skrivet av SeF.Typh00n:

Nej, minnesbandbredden är ingen flaskhals. Nuvarande GPUer är för svaga.

Annars hade inte följande graf sett ut såhär:

https://techreport.com/r.x/vram/mordor-980ti-furyx-980.gif

Det är vid SLI / CF du märker skillnaden :==)

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av Oringen:

I 4K verkar det, då 4GB HBM slår 6GB GDDR5

Nej. Finns verkligen inga benchmarks som stödjer det där påståendet. Det betyder inte att det är falskt, men man kan inte dra någon sådan slutsats. Finns inga jämförbara GPU:er med de två minnesteknikerna att jämföra på. Det du får testa i så fall är att bara minnesklocka ett eller flera 980Ti och se hur mycket det hjälper.

Permalänk
Medlem

Skynda långsamt

Folk verkar ha väldigt höga förväntningar på enorma prestandaförbättringar redan i generation 1 av denna lansering, och tyvärr kommer många bli besvikna. I praktiken mellan 20-30% prestandaökning i varje prissegment, mer krävs inte av dem idag?

Nvidia kommer närmsta året klämma ur de sista dropparna av prestanda ur GDDR5 innan de ersätter det men ny teknik, på så vis förlänger de plattformen de bygger på och kan komma med nya releaser längre fram. Varför ge bort allt tidigt, de pysslar ju inte med välgörenhet? De vill tjäna pengar som alla andra...

Permalänk
Medlem
Skrivet av RaBlack:

Blir inget alls förutom Hmmm... 2007 års teknik... GDDR5 men med 8Gbps från Samsung...
Varför måste de släppas så tidigt då? Ok om de presterar likvärdigt men annars Nej Tack.

100 - HBM2
104 - GDDR5X
106 - GDDR5

Vore i så fall ett bättre alt. för Nvidia... då de släpps.

För "folk" som är redo att betala högre priser så är det bara HBM2 som gäller.

MVH

En gissning är att de vill få ut nya kort innan AMD. Kosta vad det vill.

Permalänk
Medlem
Skrivet av Rapidact:

Folk verkar ha väldigt höga förväntningar på enorma prestandaförbättringar redan i generation 1 av denna lansering, och tyvärr kommer många bli besvikna. I praktiken mellan 20-30% prestandaökning i varje prissegment, mer krävs inte av dem idag?

Nvidia kommer närmsta året klämma ur de sista dropparna av prestanda ur GDDR5 innan de ersätter det men ny teknik, på så vis förlänger de plattformen de bygger på och kan komma med nya releaser längre fram. Varför ge bort allt tidigt, de pysslar ju inte med välgörenhet? De vill tjäna pengar som alla andra...

Finns något som heter konkurrens också.

Permalänk
Medlem

Får ju hoppas att det är något av alternativen:
1. Fake
2. Early sample så att den slutgiltiga kretsen kör med GDDR5X.
3. 1070 kommer med GDDR5 och 1080 med GDDRX.

Visa signatur

Dator: Lian Li O11 Dynamic, R9 5900X, MSI X570 ACE, Corsair H150i Pro, G.Skill TridentZ@3733MhzCL16, ASUS RTX 3090 TUF OC, Firecuda 530 2TB, 990 Pro 2TB, Corsair RM850x.
Skärm: LG OLED 42C2

Permalänk
Medlem
Skrivet av DeonCadme:

Exakt, mitt 560 TI får nog kämpa vidare ett litet tag till :-/ Det positiva är ju att man hinner lägga undan mer pengar

Hehe, även jag sitter på det kortet och avvaktar med att köpa en ny dator och monitor tills i sommar.

Visa signatur

It’s more fun to compute.

Permalänk
Keeper of The Nvidia Drivers

HBM2 är det enda som gäller, tråkigt att behöva vänta fram emot vintern 2017 som det ryktas om. Men för mig så känns både GDDR5 & GDDR5X ganska tråkiga.

Visa signatur

AMD FX53 939 | MSI nForce4 939 | Ati Radeon x1800XT OC PE | 2*1024mb G-Skill 1-2-3-2-5 | Comhem 10/1 | Frölunda Indians SM GULD!!!
In Hoc Signo Vinces!

Permalänk
Avstängd
Skrivet av tvelander:

Det är vid SLI / CF du märker skillnaden :==)

Du märker ingen skillnad i minnesbandbredd även vid SLI eller Crossfire. Det du märker är att du får mer GPU-kraft.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Master of Overkill
Skrivet av SeF.Typh00n:

Du märker ingen skillnad i minnesbandbredd även vid SLI eller Crossfire. Det du märker är att du får mer GPU-kraft.

Nä, men det är i SLI / CF du märker om minnet tar slut.
För vem vill spela i 10 FPS och 8GB VRAM Usage?

Som med med mina titan 4x SLI då tog VRAM slut i 7680x1440 watchdogs allt max, så fick stänga av MSAA och AA sen så hade jag runt 5500MB VRAM.

Det är inte förrens vid SLI CF man kan använda VRAM rätt högt för GPU kraften tar slut först.

eller Crysis 3 eller BF4 tex.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

Med 7,4–7,9 miljarder transistorer, bör ett rimligt antagande vara att ett fullt GP104 (GTX1080 eller vad det nu kommer heta) kommer vara på samma prestanda-nivå som ett GTX980Ti.

Angående GDDR5/GDDR5X, kan vara så att bilden är från ett engineering sample där de testkört med GDDR5 i väntan på GDDR5X-kretsar, men det är nog mest troligt att kortet kommer med GDDR5 om det ska lanseras så tidigt som i sommar.

Visa signatur

kill -s SIGCHLD `pidof Kenny`
bash: Oh my god, they killed Kenny
init: You Bastards

Permalänk
Avstängd
Skrivet av tvelander:

Nä, men det är i SLI / CF du märker om minnet tar slut.
För vem vill spela i 10 FPS och 8GB VRAM Usage?

Som med med mina titan 4x SLI då tog VRAM slut i 7680x1440 watchdogs allt max, så fick stänga av MSAA och AA sen så hade jag runt 5500MB VRAM.

Det är inte förrens vid SLI CF man kan använda VRAM rätt högt för GPU kraften tar slut först.

eller Crysis 3 eller BF4 tex.

Ja, men det var ju inte det som var poängen, eller hur?
Minnesbandbredden är sällan en flaskhals, minnesmängden och GPU-kraften tar slut först.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem

Ny batch GDDR5

Nya batchen av minnet från Samsung tycks ha en liten boost iaf, 8 Gbps utöver de 7 Gbps de använder idag. Dessutom lite snabbare åtkomsttid.

Ett litet steg bättre... Så inget GDDR5x i första taget...

Permalänk
Medlem

Verkar som det är mycket fokus på nya minnestyper nu, men ger det verkligen en prestandaboost? Jag tycker mig minnas överklockningstester som dragit upp GDDR5 minnen 20-25% utan nämnvärd förbättring i prestanda, fps.

Har det förändrats senaste åren eller vad ? Får man verkligen mer bilder per sekund med HBM/GDDR5x minnen jmf med GDDR5 ?

Visa signatur

Asus Z87-A| 4770k@4.5GHz@1.19v|Gtx680@+100MHz offset - Accelero Hybrid| 2x4GB Corsair 1600MHz DDR3| Samsung 830 series SSD 256GB| Asus Xonar essence STX| Corsair HX620w| Define XL| giefscience.com | Jag streamar på Twitch

Permalänk
Medlem

GP104 har ungefär samma mängd transistorer som GM200.
"1080" kan alltså antas bli ungefär lika snabb som GTX 980 Ti.
Det sistnämnda kortet har GDDR5. Varför är det katastrof om GP104-baserade kort gör det?

Permalänk
Medlem
Skrivet av houze:

Med 7,4–7,9 miljarder transistorer, bör ett rimligt antagande vara att ett fullt GP104 (GTX1080 eller vad det nu kommer heta) kommer vara på samma prestanda-nivå som ett GTX980Ti.

Angående GDDR5/GDDR5X, kan vara så att bilden är från ett engineering sample där de testkört med GDDR5 i väntan på GDDR5X-kretsar, men det är nog mest troligt att kortet kommer med GDDR5 om det ska lanseras så tidigt som i sommar.

Det som slår mig är att det kanske blir som med AMDs R9 Nano, de tar sjukt massa transistorer men kör dem i ganska låg klocka för att på så sätt få en imponerande prestanda/W. Det skulle förklara hur de planerar att klara av kylningen av så många transistorer på så liten yta, de tillåter dem helt enkelt inte att gå på full effekt. Det skulle kunna öppna upp för bra överklockning med custom-kylning om strömmen släpps fri (återigen, se på Nano som inte kan klockas på grund av strömbegränsning, är ju annars samma chip som FuryX).

Sen angående minnen så är väl betydelsen av de inte i närheten av betydelsen av GPU-klockan på de flesta moderna kort. Och lite som @tvelander skriver, det är först i höga upplösningar med flera grafikkort som man verkligen har nytta av allt minne (och då även all överföringshastighet, är minnet bara halvfullt räcker ju halva bandbredden (grovt förenklat)).

Visa signatur

Storburk: Ryzen 7 3700X, MSI B450M Mortar, FD Define Mini, CM M2 Silent 720W, 32 GB, RX 5700 XT 8GB, NVME SSD + HDD - HTPC: Ryzen 5 2400G, 16 GB, NVME SSD, BeQuiet 550W

Permalänk
Medlem

Okey, hur intressant är denna "läcka" fortfarande? De tycks ha prickat rätt med uppgiften om minnet iaf. Hur väl stämmer de andra uppgifterna i dagens läge?

Permalänk
Medlem
Skrivet av SeF.Typh00n:

Ja, men det var ju inte det som var poängen, eller hur?
Minnesbandbredden är sällan en flaskhals, minnesmängden och GPU-kraften tar slut först.

Nu är ju detta overkill test men Fury X skalar bättre i CF än GeForce korten i SLI och speciellt ju högre upplösning man drar:
http://wccftech.com/amd-radeon-r9-fury-quad-crossfire-nvidia-...

Så där finns en flaskhals om man kör jävla massa kort

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Avstängd
Skrivet av PalmiNio:

Nu är ju detta overkill test men Fury X skalar bättre i CF än GeForce korten i SLI och speciellt ju högre upplösning man drar:
http://wccftech.com/amd-radeon-r9-fury-quad-crossfire-nvidia-...

Så där finns en flaskhals om man kör jävla massa kort

Jo, men det finns ju inget som pekar på att minnesbandbredden skulle vara ett problem. Det skiljer mindre än vad man tror mellan Fury X och 980 Ti exempelvis.

Det är snarare hur spelet i kombination med drivrutiner utnyttjar de tillgängliga resurserna, vilket syns på de katastrofala resultaten och dåliga skalningen. Problemet med SLI är att bryggan inte har speciellt hög bandbredd (1GB/s), så när alla kort ska skicka info över de två bryggorna anslutna till displaykortet blir det lite trångt.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Avstängd
Skrivet av Rapidact:

Okey, hur intressant är denna "läcka" fortfarande? De tycks ha prickat rätt med uppgiften om minnet iaf. Hur väl stämmer de andra uppgifterna i dagens läge?

http://i63.tinypic.com/2w54x2w.png

Inte alls. Inte ens i närheten.

https://devblogs.nvidia.com/parallelforall/inside-pascal/

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Skrivet av Thursday:

Man får väl se det så! Ändå ganska korkat att stressa fram kort innan den tilltänkta minnestekniken är klar för massproduktion, kan jag känna. Men de har väl sina skäl.

Man har ju inte byggt grafikkort så man ju bara spekulera men... ett nytt kort tar nog rätt lång tid från planering till kund. Känns allt mer som NVIDIA hade tänkt ta det riktigt lugnt ett tag till med utvecklingen men att de blev stressade av AMD:s aktiviteter.
Kanske ser vi lite positiv konkurrans? Kanske AMD håller på något som skrämmer dem?

Skrivet av Dreijer:

Hehe, även jag sitter på det kortet och avvaktar med att köpa en ny dator och monitor tills i sommar.

Det har varit ett prisvärt kort och det klarade av XCOM 2 och Fallout 4 med tillräckligt höga inställningar för att det skulle se Ok ut. Dock känns det som om det är dags för kortet att gå i pension

Permalänk
Medlem
Skrivet av DeonCadme:

Man har ju inte byggt grafikkort så man ju bara spekulera men... ett nytt kort tar nog rätt lång tid från planering till kund. Känns allt mer som NVIDIA hade tänkt ta det riktigt lugnt ett tag till med utvecklingen men att de blev stressade av AMD:s aktiviteter.
Kanske ser vi lite positiv konkurrans? Kanske AMD håller på något som skrämmer dem?

Det har varit ett prisvärt kort och det klarade av XCOM 2 och Fallout 4 med tillräckligt höga inställningar för att det skulle se Ok ut. Dock känns det som om det är dags för kortet att gå i pension

Vad är det du säger? Lyckades du köra Fallout 4 med 1GB VRAM? Jag avstod från att ens prova, då jag antog att kortet aldrig skulle kunna fungera.

Visa signatur

It’s more fun to compute.

Permalänk
Medlem

Här pratas det om att 1070 får GDDR5 och 1080 får GDDR5X:

http://www.eteknix.com/nvidia-pascal-gp104-may-use-gddr5-and-...

Visa signatur

Dator: Lian Li O11 Dynamic, R9 5900X, MSI X570 ACE, Corsair H150i Pro, G.Skill TridentZ@3733MhzCL16, ASUS RTX 3090 TUF OC, Firecuda 530 2TB, 990 Pro 2TB, Corsair RM850x.
Skärm: LG OLED 42C2

Permalänk
Skrivet av Dreijer:

Vad är det du säger? Lyckades du köra Fallout 4 med 1GB VRAM? Jag avstod från att ens prova, då jag antog att kortet aldrig skulle kunna fungera.

1GB VRAM är inget som stoppar dig så länge du bara inte förväntar dig att du skall kunna skruva upp alla inställningar till max.

Vill man ha något krävande för kortet så fann jag att det var långt jobbigare att hitta bra inställningar för DA:Inquisition än XCOM2 och Fallout 4. Det sistnämnda var ärligt talat det enklaste spelet i och med att spelmotorn är så gammal och så lite har förändrats sedan Fallout 3.

Det mest ironiska är att Fallout 4 är stabilare på 4GB RAM än Fallout 3 någonsin var xD

Permalänk
Medlem
Skrivet av ajp_anton:

GP104 har ungefär samma mängd transistorer som GM200.
"1080" kan alltså antas bli ungefär lika snabb som GTX 980 Ti.
Det sistnämnda kortet har GDDR5. Varför är det katastrof om GP104-baserade kort gör det?

GP104 kommer högst troligt få högre frekvenser med. Så det är möjligt att den utpresterar 980Ti rätt bra. Men ja, minnesbandbredden borde inte vara ett så stort problem på GDDR5 ändå.

Permalänk
Medlem
Skrivet av DeonCadme:

1GB VRAM är inget som stoppar dig så länge du bara inte förväntar dig att du skall kunna skruva upp alla inställningar till max.

Vill man ha något krävande för kortet så fann jag att det var långt jobbigare att hitta bra inställningar för DA:Inquisition än XCOM2 och Fallout 4. Det sistnämnda var ärligt talat det enklaste spelet i och med att spelmotorn är så gammal och så lite har förändrats sedan Fallout 3.

Det mest ironiska är att Fallout 4 är stabilare på 4GB RAM än Fallout 3 någonsin var xD

Tack för svaret. Då kanske det blir att testa spelet, medan jag inväntar en ny serie GPU:er.

Visa signatur

It’s more fun to compute.

Permalänk
Medlem
Skrivet av Aleshi:

GP104 kommer högst troligt få högre frekvenser med. Så det är möjligt att den utpresterar 980Ti rätt bra. Men ja, minnesbandbredden borde inte vara ett så stort problem på GDDR5 ändå.

Ja, den har ju lite fler transistorer, och arkitekturen är antagligen förbättrad. Dock så skyltar man ju ofta med ökad effektiv minnesbandbredd med bättre komprimering, och så går ju minnesfrekvensen upp, så jag ser inte riktigt problemet med att använda GDDR5 på dessa kort.