Nvidia Geforce GTX 1080 dissekeras framför kameran

Permalänk
Medlem

Som sagt, första kortet på 14/16nm, ser ut som att man sparar massor av krut till senare. Nodminskningen i sig verkar ha räckt för att ett kort i nivå med GTX950/960 pcb-mässigt skall slå allt på 28nm. Räkna med att 1080 kommer att verka slött om ett år från nu.

Billigare att tillverka och dyrare pris verkar win-win för Nvidia med partners, inte fullt så för konsumenter kanske, men i brist på konkurrens kan man knappast klandra dom.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av Raymond:

När bra freesync/g-sync skärmar kommer blir det gpu uppgradering. Men dagens skärmar av denna typ lider av så mycket barnsjukdomar så jag inväntar bättre alternativ..

Vilka barnsjukdomar då? Har inte märkt något problem med de två G-syncskärmar jag haft iaf (i spannet 30-60 Hz).

Visa signatur

5950X, 3090

Permalänk
Medlem
Skrivet av ggalaxyy:

Är nog mest intresserad av prestandaökning i VR, men självklart till 4K gaming också

Ska du spela i 4k får du köpa 2st i vilket fall som helst.

Permalänk
Medlem

Det sägs att vi ska vänta på benchmarks, men med tanke på att de släpps ganska långt innan den faktiska hårdvaran, vad har vi att välja på? Lite spekulationer har inte skadat någon.

Jag är tokigt sugen på ett 1080-kort från någon stabil tillverkare, exempelvis ASUS eller EVGA. Naturligtvis kommer jag dock lusläsa alla benchmarks exempelvis SweC släpper på tisdag när nVidias NDA går ut, dum vore man ju annars.

Visa signatur

Rigg: Intel Core i7-8700K @ 3,7 GHz, 32GB RAM (3200 MHz), ASUS TUF RTX 3080, Corsair TX850M
Tillbehör: Iiyama ProLite X4372UHSU (43", 4K), Razer Naga Hex MOBA, Func KB-460 (Cherry MX Red)
NAS: Synology Diskstation 413j + 4 * 3TB WD RED

Permalänk
Medlem
Skrivet av enbom:

Vilken signatur? Jag ser ingen Sweclockers-logo eller signatur på bilderna.

Borttaget sen jag skrev inlägget ser det ut som.

Permalänk
Medlem
Skrivet av bonaqua:

Borttaget sen jag skrev inlägget ser det ut som.

Aah. Okej.

Visa signatur

AMD 5800X ▪ MSI B550M Mortar ▪ G.Skill 32GB 3600MHz CL16 ▪ Palit 4070 Ti ▪ 1TB SSD 970 Evo+ ▪ Dark Power 13 1000W ▪ FD Define Mini C ▪ Aorus AD27QD + LG 27GL850

Permalänk
Entusiast
Skrivet av SectionX2:

Jag vägrar att gå tillbaka till 256-bit bus

Kan du förklara varför?

https://youtu.be/NzOD0WaUJVs?t=1504 <-- diskuteras här

Är inte otrevlig eller ifrågasätter, men det vore bra om du utveckla

Permalänk
Medlem
Skrivet av SectionX2:

Jag vägrar att gå tillbaka till 256-bit bus

Buss-bredden är ganska ointressant...

GDDR5X 256bit är typ ekvivalent med GDDR5 512bit vid samma minnesklocka t.ex. Det var ju hela poängen med GDDR5X.
Sen att GDDR5X inte uppnår samma minnesklocka som GDDR5 ännu är en annan sak.

Permalänk
Master of Overkill
Skrivet av Christley:

vad är poängen att släppa kortet sådär då? är de inte bara bortkastade pengar på att printa eget när så få köper de?

Få köper det inte, kan jag säga.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

När hävs NDA ?

Visa signatur

^^^
@¿@
o

Permalänk
Master of Overkill
Skrivet av Cyberz:

När hävs NDA ?

Lär va 27e

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av tvelander:

Lär va 27e

Nej redan den 17e för GTX 1080. Så var beredda på att läsa riktiga recensioner nästa tisdag.

Visa signatur

Intel i7-3770K@4,5GHz 1,275V - ASRock P67 Pro3 REV B3 - Corsair Vengeance Pro DDR3 2133MHz 2x8GB - MSI GTX 1080 Gaming X - Samsung 840 EVO 120GB - WD Caviar Black 6TB - Seagate SV35 2TB - Noctua NH-C12P SE14 - LG DVD+-RW - Seasonic Focus+ Gold 750FX - Antec One Hundred - Dell 25" UltraSharp U2515H 1440p

Permalänk
Medlem
Skrivet av ramlösa:

Ska du spela i 4k får du köpa 2st i vilket fall som helst.

För att spela dom tyngsta titlarna ja, men ett 980ti räcker gott och väl för att få 165hz @ 1440p för mig i te.x rocket league som jag spelar mycket. Så ett 1080 borde ge stabila 60 och mycket mer i 4k. Men vem vet.

Visa signatur
Permalänk

Vilken sorts potatis använde ni för att ta dessa bilder?

Permalänk
Master of Overkill
Skrivet av vanlighalsning:

Vilken sorts potatis använde ni för att ta dessa bilder?

Inte deras bilder..

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av SAnDis:

Avvakta på benchmarks, finns för många tomtar som hypar upp kortet utan att veta något.
Finns rykte om säger 2-3% till 50% bättre, allt beror på spel, dx11, dx12.

Om vi tar de data som finns vilket är TFLOPS

1080 har 37,78% mer FLOPS än 980Ti
980Ti har 17,86% mer FLOPS än 980
Jämför vi Tesla Pascal mot 1080 så har Tesla 25% mer FLOPS än 1080

Ska bli spännade med benchmarks om 5 dagar

Visa signatur

Corsair Crystal 280X Chassi// AMD Ryzen 5800X3D// PowerColor RX 6900 XT// Corsair 3200Mhz 64GB// Asus X570-I // Corsair AX 760W // Samsung 960 EVO 250GB Nvme SSD // Samsung 980 PRO 2TB Nvme SSD // Samsung 850 EVO 1TB SSD //Samsung Odyssey Neo G9 // Windows 11 Pro X64

Permalänk
Medlem
Skrivet av Zpnk:

Kan du förklara varför?

https://youtu.be/NzOD0WaUJVs?t=1504 <-- diskuteras här

Är inte otrevlig eller ifrågasätter, men det vore bra om du utveckla

För att jag har 4096 bit med HBM. Känns som ett nedköp att gå tillbaka till GDDR5 även om det är X varianten.

Will wait for VEGA.

Skickades från m.sweclockers.com

Visa signatur

Ryzen 7800X3D
32GB DDR5
RX 7900XT

Permalänk
Medlem
Skrivet av tvelander:

Varför skulle en kapad krets överklocka bättre?

För att korten bygger på samma krets och har därmed samma potential att nå taket. Det som avgör hur bra kortet överklockar är vad som mer sitter på kretskortet och hur strömmatningen ser ut, och kylning då förstås. I slutändan så landar båda korten på ungefär samma klockfrekvenser när de är överklockade till sin maxgräns, men eftersom att x70-kort är underklockade i fabrik så blir den procentuella skillnaden högre där, och därmed så överklockar de bättre. Klarar 1080 exempelvis bara av en ökning på 150MHz så kanske 1070 klarar 250 MHz. Dock brukar x80-kort ha fler kärnor och vinner i slutändan på detta.

Skrivet av Wifi:

Varför skulle inte GTX 1070 klara av 1440p bra? Eller du menar att GTX 1080 bara kommer klara av det bättre?

Menar så klart att 1080 kommer klara av det bättre, mest tack vare snabbare minne.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem
Skrivet av SectionX2:

För att jag har 4096 bit med HBM. Känns som ett nedköp att gå tillbaka till GDDR5 även om det är X varianten.

Will wait for VEGA.

Skickades från m.sweclockers.com

Det enda som spelar roll är ju prestandan i vad man skall använda kortet till.

Permalänk
Medlem

Ja ja jag vill se Sweclockers sätta tänderna i korten innan jag säger något

Visa signatur

Låda thermaltake view 91 M-kort ASUS X399 ROG Zenith Extreme CPU AMD Ryzen Threadripper 1920X 3.5 GHz Kylning Hemma byggd vattenkylning 2 x 480mm + 1 x 420mm radiatorer Minne 8 X 16Gb DDR4 HD SSD 240GB OCZ Trion 100 Grafik Gigabyte Geforce RTX 3080 10GB GAMING OC WATERFORCE WB AGG Corsair RM 1000w 80+ Gold Skärm ASUS 43" ROG Strix XG438QR 4K VA HDR 120 Hz

Permalänk
Entusiast
Skrivet av SectionX2:

För att jag har 4096 bit med HBM. Känns som ett nedköp att gå tillbaka till GDDR5 även om det är X varianten.

Will wait for VEGA.

Skickades från m.sweclockers.com

http://vrworld.com/2016/02/11/gddr5x-memory-shows-better-than...

Det är ett uppköp rent prestandamässigt, men förstår hur du tänker... skulle kännas konstigt att gå tillbaks i teknikväg.

Permalänk
Medlem

Verkar det inte som att de använt ungefär samma design på 1080 som på 980? Tänkte att det för första gången(?) borde gå att använda samma vattenblock för båda korten?

Permalänk
Medlem
Skrivet av Zpnk:

http://vrworld.com/2016/02/11/gddr5x-memory-shows-better-than...

Det är ett uppköp rent prestandamässigt, men förstår hur du tänker... skulle kännas konstigt att gå tillbaks i teknikväg.

Bredare minnesbus är inte nödvändigtvis framtiden.
Det har mer med minnestypen att göra.
HBM kräver just nu extremt bred bus för att ge bandbredden som krävs.
När frekvensen på HBM kretsarna går upp så kan jag garantera att busbredden minskar.
Detta p.g.a. breda bussar kostar väldigt mycket.

Permalänk
Medlem

Synd att kronan är så klen just nu som skapar detta höga pris.
Vore intressant om amd gjorde sin lansering snart också även de troligen inte kommer konkurrera mot gtx 1080.
Nu vill man se tester ar kortet och ljudnivåer etc samt mis, asus och andras egna implementationer av kylare och ev. fabriksöverklockning.

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Avstängd

@Gender Bender: Vet inte standard Mhz på gtx1070, men på gtx1080 är det 1600/1700Mhz och under presentationen visade dem ett överklockat 1080 på 2100Mhz som låg på ca 67 grader med referenskylare, svårt att tro att 1070 slår detta men vi får vänta och se helt enkelt.

Permalänk
Medlem
Skrivet av ostlani:

@Gender Bender: Vet inte standard Mhz på gtx1070, men på gtx1080 är det 1600/1700Mhz och under presentationen visade dem ett överklockat 1080 på 2100Mhz som låg på ca 67 grader med referenskylare, svårt att tro att 1070 slår detta men vi får vänta och se helt enkelt.

Nu var det bara ett exempel. Men om man utgår från att GTX 1070 har 2048 CUDA-kärnor, vilket är mest troligt, så borde boostfrekvensen ligga på ca: 1600 MHz, vilket är 100 MHz lägre än 1080. Så överklockar man både 1070 och 1080 till 2100 MHz så kommer 1070 automatiskt att överklocka 100 MHz mer än 1080. Och det var det som var min poäng redan från början.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Avstängd
Skrivet av Sifear:

Om vi tar de data som finns vilket är TFLOPS

1080 har 37,78% mer FLOPS än 980Ti
980Ti har 17,86% mer FLOPS än 980
Jämför vi Tesla Pascal mot 1080 så har Tesla 25% mer FLOPS än 1080

Ska bli spännade med benchmarks om 5 dagar

Och plus på detta är att dessa kort har olika typer av arkitekturer.
Mawell's och Pascal's CUDA kärnor skiljer sig åt, så att beräkna fram TFLOPS och utgå från det bara är lite fel.

Antal CUDA kärnor x 2 = X
X x ƒ (frekvensen Mhz) = X MHz
1000000 MHz=1 THz

Exempel:
Geforce GTX 970,
GMCUDA 1664, Boost clock (MHz) 1178
1664x2=3328, 3328x1178=3920384
3920384 MHz/1000000 MHz= 3.920384 THz
3.9 TFLOPS för Geforce GTX 970.

Man ska ha i åtanke att dessa GPU'er kan klockas olika beroende på arkitekturens uppbyggnad.

FLOPS is "how many floating point operations per second". So it's a form of Hz, but with a specific value of "something". This is where it gets tricky:

Hz may mean, "how many instructions does the CPU handle every second". Or it could also mean "how many clock cycles does the CPU have per second" (the later is usually how CPUs are measured). Note those two are not necessarily the same. And a floating point operation is one of those where a CPU instruction is not the same as one clock cycle (since a floating point opp would usually take multiple clock cycles to complete - depending on hardware design).

So if you "know" that your particular CPU uses 20 clock cycles to multiply two floating point numbers together, then you can use this to convert between FLOPS & Hz and back. But what if you then have another CPU which uses up 30 cycles for each FLO? Thus you can only convert if you know the particular hardware involved - you cannot convert for any possible hardware (except to use some averaging and thus get an "almost" value).

And to make it even more complicated: Some CPUs have what's known as Pipe-lining. I.e. while one FLO is "halfway" (or again depending on hardware design) complete it can start on the next, thus reducing the total number of cycles spent on both.

Zotac's snygga baksida "GTX 1080 PGF edition (Prime Gamer Force)":

Permalänk
Datavetare

@IceWoman: alla GPUer från Nvidia och AMD har samma kapacitet per CUDA/stream-core, nämligen två flyttalsoperationer per cykel. Båda företagens designer är också vad man kallar "fully pipelined" så latensen att färdigställa en beräkningar (som garanterat är olika och som i praktiken kan påverka hur nära man når teoretiskt max) är irrelevant när man bara är ute efter kapaciteten för en GPU.

Förutsatt att AMD inte ändrat kapaciteten för antal flyttalsoperationer man utför per cykel och stream-kärna så är det inte svårare än

FLOPS = GPU-frekvens * CUDA/stream-kärnor * 2

för att få ut maximal kapacitet för shader-array i FLOPS för alla GPUer som AMD och Nvidia släppt.

Att det blir just detta verkar vara för att både AMD och Nvidia i praktiken definierar en CUDA/stream-core som en multiply-accumulate operation (FMA) enhet. Varje FMA utför en multiplikation och en addition, d.v.s. två flyttalsoperationer vilket är anledningen till att multiplicera med två.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Kan knappt vänta, vill se svensk prislapp och benchmarks nu!

Permalänk
Medlem

Jag tror inte riktigt på att bra GTX1080-kort kommer att kosta så lite som Nvidia säger. Det luktar marknadsförings-trick.
Räkna med att behöva betala lika mycket som för Founder's Edition.

Visa signatur

För övrigt anser jag att tobak ska förbjudas.