Nvidia registrerar varumärket Geforce RTX – kan bli namn för kommande grafikkortserie

Permalänk
Medlem
Skrivet av pv2b:

AMD vinner inte heller på mid-range eller low-end, då alla Radeon-produkterna presterar sämre än Nvidia-produkter i samma prisklass. Ska man vara aktuell så måste man antingen ha det som är bäst, eller det som är mest prisvärt. Det enda vettiga argumentet jag hört för att köpa AMD just nu är att FreeSync-skärmar är billigare än G-sync-skärmar, och på det sättet kan man spara pengar totalt i vissa scenarion.

Det var väl ändå lite att ta i? Kollade precis prisläget för ett antal kort och tycker det verkar ganska jämnt.

RX 570 motsvarar GTX 1060 3GB, båda modeller börjar runt 200€

RX 580 motsvarar GTX 1060 6GB, båda modeller börjar runt 280€

Vega 56 motsvarar GTX 1070TI, båda modeller börjar runt 470€ (runt ~400€ om man är ok med att handla från Newegg)

Vega 64 motsvarar ungefär GTX 1080, där finns det en skillnad iom att 1080 verkar vara ungefär 50€ billigare i snitt.

Permalänk
Avstängd
Skrivet av zhrooms:

All tidigare information pekar på att det inte alls stämmer.

Firestrike Graphics Score

  • GTX 580 1.5GB   = 4998 - 128MB x 12

  • GTX 680 2GB      = 7065 (+42%) - 256MB x 8

  • GTX 780 3GB      = 9414 (+33%) - 256MB x 12

  • GTX 780 3GB Ti   = 11307 (+20%) - 256MB x 12

  • GTX 980 4GB       = 13146 (+16%) - 512MB x 8

  • GTX 980 Ti 6GB    = 16824 (+28%) - 512MB x 12

  • GTX 1080 8GB      = 21460 (+28%) - 1GB x 8

  • GTX 1080 Ti 11GB = 28317 (+32%) - 1GB x 11

  • RTX 2080 16GB = 2GB x 8

  • RTX 2080 Ti 24GB = 2GB x 12

GTX 1080 Ti 11GB var advertised för "4K@60FPS" kraftigt av NVIDIA m.fl.

Finns inte en chans att NVIDIA släpper nytt värstingkort med nytt namn (RTX) som knappt är snabbare, 8% går inte att märka av ens, det är 65 FPS från 60 FPS.

Jag förväntar mig minst 25%, hoppas på 35%, behövs för de kommande 4K@120 skärmarna som förhoppningsvis dyker upp snart™.

Okej, med den logiken så kan NVIDIA strunta i nästa grafikkort alltså, eftersom detta kort kommer vara bättre än nästa kort av AMD. Det du inte verkar förstå är att konsumenter behöver en anledningen till att spendera tusenlappar på nya produkter, de konkurerar mot sina egna produkter, samtidigt som att det tar år att ta fram nya produkter, skulle NVIDIA skippa nästa grafikkort, så skulle de inte hinna ikapp AMD och de får nu istället alla kunder, det är en konstant kamp.

Nej. Det stämmer inte, därför missar ingen det. Ti är bara en "refresh" likt Intel, t.ex. 8700K till 9700K (samma Arkitektur, Chipset & Socket).

Bara ett rykte än så länge likt 16GB. GTX 1080 (256-bit) har plats för 8 minnesmoduler och GTX 1080 Ti (384-bit) har plats för 12 minnesmoduler. PCB som läckt ut visar 8 minnesmoduler vilket stämmer bra för icke Ti korten (256-bit). Alltså en gigabyte per modul alternativt två per modul vilket då blir 16GB.

"SK Hynix has also confirmed that it will offer GDDR6 chips in 1GB and 2GB densities. Typically, each 32-bit GDDR memory controller segment is paired with a single GDDR chip, this in turn means that we’ll be looking at 8GB and 16GB capacities on 256-bit GPUs" - Wccftech

Du menar alltså att dom utvecklat ett helt nytt grafikkort för en oändlig summa pengar, med samma prestanda som deras äldre grafikkort som idag kostar 8000kr, endast för att undercutta sig själva med 3000kr?

RTX har redan visats i dussintals spel, det är på riktigt och är här redan idag, först nästa år lär det öka rejält dock, hype börjar hur som helst nu med release av denna nya serie (om det nu stämmer att de döper om till RTX).

@zhrooms Bra argument där! Håller med dig helt hållet!

Vi håller tummarna nu

Visa signatur

Intel i7 7700K OC 4.9Ghz | Asus Z170 PRO GAMING AURA.
EVGA GQ 750W | 4 x 4GB Corsair Vengeance DDR4 2500Mhz.
PNY GeForce RTX 2080 Ti XLR8 | SSD Crucial MX300 525GB.
Acer 27" Predator LED G-Sync XB271HUA 1440P 165hz.
Ducky One 2 Mini Pure White Keyboard (Silent Red Switch)

Permalänk
Medlem
Skrivet av zhrooms:

Du menar alltså att dom utvecklat ett helt nytt grafikkort för en oändlig summa pengar, med samma prestanda som deras äldre grafikkort som idag kostar 8000kr, endast för att undercutta sig själva med 3000kr?

Ett GTX1080 är i runda slängar dubbelt så snabbt som det GTX Titan Black som släpptes några år tidigare, med 2gb extra minne som bonus... och 1080 kostade hälften så mycket som Titan.

Hur tänkte du nu? Det är så här grafikkorts releaser fungerar. Annars skulle vi ha grafikkort som kostar minst en halv miljon idag för att dom skulle aldrig sänka priset ju snabbare dom är.

Permalänk
Inaktiv

GPU-native raytracing i 8K VR. What is reality again?

btw sjukt trött på dessa överpriser som håller i sig, uråldriga 1080 ti fortfarande rena rånet. Om nextgen blir +12k eller något sånt löjligt pris blir det att hunta begagnat när "alla andra" uppgraderar.

Permalänk
Hedersmedlem
Skrivet av hg:

Det var väl ändå lite att ta i? Kollade precis prisläget för ett antal kort och tycker det verkar ganska jämnt.

RX 570 motsvarar GTX 1060 3GB, båda modeller börjar runt 200€

RX 580 motsvarar GTX 1060 6GB, båda modeller börjar runt 280€

Vega 56 motsvarar GTX 1070TI, båda modeller börjar runt 470€ (runt ~400€ om man är ok med att handla från Newegg)

Vega 64 motsvarar ungefär GTX 1080, där finns det en skillnad iom att 1080 verkar vara ungefär 50€ billigare i snitt.

Som du sade, jag tog nog i lite väl mycket. Radeon-korten har faktiskt blivit billigare på sistone, eftersom mininghysterin oproportionerligt gjorde AMD-kort dyrare. Dock hittar jag fortfarande ganska konsekvent Nvidia-kort ett par hundringar billigare än Radeon-kort. Ber om ursäkt för den utdaterade analysen. Det hade dock sett ut som jag beskrev ganska länge innan.

Jag hoppas att det här håller i sig. Det är ju sant att det inte är alla som vill eller behöver ha 1080 Ti-prestanda.

Permalänk
Medlem

De får ju sluta mjölka oss på pengar, 8-10k för kort som inte kan maxa spel liksom. Kör samma utveckling som med CPUerna istället. Quad core GPU tack.

Permalänk
Medlem
Skrivet av cracko:

De får ju sluta mjölka oss på pengar, 8-10k för kort som inte kan maxa spel liksom. Kör samma utveckling som med CPUerna istället. Quad core GPU tack.

1080Ti har 3584 kärnor

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av zhrooms:

Det har kommit ut mycket information under senaste veckorna, varav den senaste är vad artikeln handlar om, källan om ni trycker vidare till videocardz, kommer från en YouTube video med mer information, en sak som framkommer där är denna bild.

https://i.imgur.com/1qR6H57.jpg

Jag tror inte en sekund på att det där stämmer, Titan V är upp till 55% snabbare än 1080 Ti, och GTX 1080 Ti är upp till 45% snabbare än GTX 1080. Att då "RTX 2080" skulle vara endast 8% snabbare har jag extremt svårt att tro på.

Det har varit löjligt mycket rykten senaste halvåret och nästan allt har varit påhitt, riktigt trött på det vid detta laget. Längtar alltså enormt till måndag då NVIDIA SIGGRAPH kör igång samt NVIDIA GeForce Gaming Celebration måndagen därefter, allt blir då officiellt så dessa rykten och falsk information tar slut.

Hårdvaruaccelererad raytracing kräver just vad det första ordet säger: hårdvara. Det innebär att nVidia måste offra yta på chippet som normalt används till annat. Därför skulle jag inte alls vara förvånad som det stämmer med 8%. Och andra sidan så är det säkert flera hundra procent bättre än GTX 1080 ti på raytracing.

Det är tråkigt om det stämmer i tabellen att RTX2070 är ett mindre chip och inte samma som används i RTX2080.
GxXX0 är "full size chippet" som används till toppmodellen och Titan. GxXX4 är ca 70% av det stora chippet och GxXX6 är ca 50% av det stora chippet. Med pascal tog de fram en 102 modell också, har inte riktigt koll på vad det innebär.

nVidia fulade sig när de sålde GK104 som GTX680 och i brist på konkurrens har de visat att de gör precis som de vill.

Kompletterar din tabell och vill förtydliga att mängden minne på ett grafikkort beror främst på vad minnesmodulerna har för kapacitet (som finns tillgänglig) och bredden på minnes bussen.

I teorin kan du utrusta ett GTX560 ti med 8x1GB moduler. För GDDR6 vet jag inte om det finns 2GB moduler än. Enligt Sweclockers så kommer de första modulerna på 1GB:
https://www.sweclockers.com/nyhet/25930-micron-inleder-produk...

GTX 560ti 1GB GF114 256-bit 128MB x 8

GTX 580 1.5GB GF110 = 4998 - 384-bit 128MB x 12

GTX 680 2GB GK104 = 7065 (+42%) - 256-bit 256MB x 8

GTX 780 3GB GK110 = 9414 (+33%) - 384-bit 256MB x 12

GTX 780 3GB Ti GK110 = 11307 (+20%) - 384-bit 256MB x 12

GTX 980 4GB GM204 = 13146 (+16%) - 256-bit 512MB x 8

GTX 980 Ti 6GB GM200 = 16824 (+28%) - 384-bit 512MB x 12

GTX 1080 8GB GP104 = 21460 (+28%) - 256-bit 1GB x 8

GTX 1080 Ti 11GB GP102 = 28317 (+32%) - 384-bit 1GB x 11 (har stöd för 1GBx12)

RTX 2080 16GB TU104 = 2GB x 8 (Vore logiskt ja, men skulle kunna vara 1GB x8 då de flesta spel inte använder mer och Sweclockers nyhet pekar på att de första minnesmodulerna kommer vara på 1GB)

RTX 2080 Ti 24GB TU102 = 2GB x 12 (I teorin ja, behöver man så mycket grafikminne?)

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Förlåt men jag måste bara avika från ämnet lite.. Killar ni som skriver artiklar här.. Låt bli att översätta alla ord, dom duger fint på engelska i 2018. Strålspårning syslar man med på herrtoaletter vid urinoarer.

Permalänk
Medlem
Skrivet av Herr Kantarell:

(I teorin ja, behöver man så mycket grafikminne?)

Jag är rätt så säker att den frågan var på bordet när korten dubblade 8mb ram till helt vansinniga 16mb ram.

Permalänk
Medlem

@zhrooms:

1080ti är ingen refresh, det är som dom andra säger produkter som är segmenterade.
Skillnaden mellan gp 104 och 102 är ingen refresh, dom är alltid planerade och släpps varje generation, anledningen till att ena släpps mycket senare är som sagt för att få konsumenterna att köpa så många grafikkort som möjligt.

Anledningen till att man ej kan jämföra gp 102 (1080ti) och nästa generations xx80 kort är att dom kommer vara bygda av helt olika sorters (olika stora som procent av nvidias värstingkrets g 100) kretsar. Gp 104 (1080) var 314mm2 och gp 102 var 471mm2, därför kan du inte jämföra dom, det är som att jämföra en ny i5a mot förra generationens i7a, för att kunna jämföra skillnaden mellan arkitekturerna (eller snarare skillnaden mellan hur mycket nvidia kommer undan med att segmentera marknaden) så måste man kolla på 1080 mot xx80 alternativt 1080 ti mot xx80 ti.

Permalänk
Datavetare
Skrivet av ClintBeastwood:

1080Ti har 3584 kärnor

Poäng för kvicktänkthet där

Ska man vara lite mer tekniskt petig är CUDA-kärnor inte alls samma sak som CPU-kärnor.
En mer äpplen-mot-äpplen vore att hävda att ett 1080 Ti har 28 kärnor då det är 28 SMs.

För att fortsätta CPU-analogin kan man se varje SM som en 4-SMT CPU (fyra program, fyra CUDA-warps, kan köras varje cykel per SM) med fyra stycken AVX-1024 ALUs (varje CUDA-warp kan köra upp till 32 FMA -> 32 (antal CUDA-cores) * 32 (antal bitar i SP flyttal) -> 1024 bitars ALU bredd).

Omvänt, en i7-8700K har 6 (antal kärnor) * 2 (antal 256 AVX ALUs med FMA stöd) * 256 (bitbredd för AVX i Skylake) / 32 (antal bitar i SP flyttal) = 96 CUDA-cores

Skrivet av Herr Kantarell:

Hårdvaruaccelererad raytracing kräver just vad det första ordet säger: hårdvara. Det innebär att nVidia måste offra yta på chippet som normalt används till annat. Därför skulle jag inte alls vara förvånad som det stämmer med 8%. Och andra sidan så är det säkert flera hundra procent bättre än GTX 1080 ti på raytracing.

Fast enda hårdvara det är ett hårt krav på är flyttalsberäkningar. Det kan alla moderna GPUer.

Problemet är att raytracing inte alls är lika dataparallellt som rastrering -> går att göra på ett GTX kort utan t.ex. tensor-cores men blir rätt ineffektivt då väldigt många trådar i en "CUDA-warp" (32 st) kommer inte göra något vettig i många fall.

Tensor cores gör något väldigt specifikt, de utför

R = A * B + C

Där A och B är 4x4 matriser med 16-bitars flyttal och C är en 4x4 matris med 16- eller 32-bitars flyttal. Perfekt match för machine-learning, men också en nära nog perfekt match för raytracing då i princip alla operationer som behövs kan beskrivas med matrismultiplikation (addition kan användas i vissa fall, men multiplikationen är långt mer användbar).

Tensor-cores gör en sådan operation per cykel! D.v.s. totalt 64 multiplikationer och 16 additioner, 80 FLOPS per tensor core och cykel.

Tittar man på Volta finns det två tensor-cores per warp, d.v.s. totalt åtta tensor-cores per SM. Det kommer vara långt mycket enklare att fylla tensor-cores med vettigt jobb när man jobbar med raytracing. Det är en en parallell uppgift, men det är inte en "embarrassingly parallel" uppgift som rastrering. Tricket för att effektivt hantera sådana uppgifter är färre men mer, för uppgiften, kompetenta kärnor!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam
Skrivet av Gipsyboy:

Förlåt men jag måste bara avika från ämnet lite.. Killar ni som skriver artiklar här.. Låt bli att översätta alla ord, dom duger fint på engelska i 2018. Strålspårning syslar man med på herrtoaletter vid urinoarer.

Håller inte med, om vi överger översättningar från utländska ord försvagas vårt eget språk.

Ibland blir det lite komiskt med alla engelska buzzwords (modeord).
Mindset (inställning) är poppis nu, när jag frågade en föreläsare vad mindset betyder visste han inte heller, han hade använt det väldigt flitigt, en i publiken fick förklara för oss.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Master of Overkill
Skrivet av cracko:

De får ju sluta mjölka oss på pengar, 8-10k för kort som inte kan maxa spel liksom. Kör samma utveckling som med CPUerna istället. Quad core GPU tack.

Så nvidia tvingar dig spela i 3440x1440 eller 4K och högre hmm

Skickades från m.sweclockers.com

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

Bara för alla spekulationer så väljer dom säker rtx 160, 170, 180 eller nåt

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Yoshman:

Fast enda hårdvara det är ett hårt krav på är flyttalsberäkningar. Det kan alla moderna GPUer.

Problemet är att raytracing inte alls är lika dataparallellt som rastrering -> går att göra på ett GTX kort utan t.ex. tensor-cores men blir rätt ineffektivt då väldigt många trådar i en "CUDA-warp" (32 st) kommer inte göra något vettig i många fall.

Tensor cores gör något väldigt specifikt, de utför

R = A * B + C

Där A och B är 4x4 matriser med 16-bitars flyttal och C är en 4x4 matris med 16- eller 32-bitars flyttal. Perfekt match för machine-learning, men också en nära nog perfekt match för raytracing då i princip alla operationer som behövs kan beskrivas med matrismultiplikation (addition kan användas i vissa fall, men multiplikationen är långt mer användbar).

Tensor-cores gör en sådan operation per cykel! D.v.s. totalt 64 multiplikationer och 16 additioner, 80 FLOPS per tensor core och cykel.

Tittar man på Volta finns det två tensor-cores per warp, d.v.s. totalt åtta tensor-cores per SM. Det kommer vara långt mycket enklare att fylla tensor-cores med vettigt jobb när man jobbar med raytracing. Det är en en parallell uppgift, men det är inte en "embarrassingly parallel" uppgift som rastrering. Tricket för att effektivt hantera sådana uppgifter är färre men mer, för uppgiften, kompetenta kärnor!

Intressant! Hade missat att raytracing hade så mycket gemensamt med machine-learning. Som jag syftade på med hårdvara så har man som du själv nämner tagit fram speciella tensor-cores (och även förklarat varför) för detta även om det i grunden rör sig om flyttalsoperationer.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av Ratatosk:

Håller inte med, om vi överger översättningar från utländska ord försvagas vårt eget språk.

Inom humaniora kan det vara en vettig inställning, men inte nödvändigtvis när det gäller teknik.

Det är tvärtom bättre att använda tekniska termer som är användbara när man själv vill söka information på nätet. Ingen kommer att använda "strålspårning" som nyckelord för sökningar om raytracing.

Permalänk
Medlem
Skrivet av Herr Kantarell:

GxXX0 är "full size chippet" som används till toppmodellen och Titan. GxXX4 är ca 70% av det stora chippet och GxXX6 är ca 50% av det stora chippet. Med pascal tog de fram en 102 modell också, har inte riktigt koll på vad det innebär.

nVidia fulade sig när de sålde GK104 som GTX680 och i brist på konkurrens har de visat att de gör precis som de vill.

Var får du all denna information ifrån?

Sen får du nog ta det lugnt med historierevisionismen beträffande AMD's konkurrenskraft på den tiden när de hade HD 7970 (med 50% mer VRAM) som motvikt till GTX 680.

Permalänk
Medlem

Om ryktena stämmer om bara 8% förbättrad prestanda gentemot 1080 Ti, så gör inte det mig något, blir ju stort hopp för mig med ett 980 Ti till 2080/1180.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem
Skrivet av ClintBeastwood:

1080Ti har 3584 kärnor

Är det kärnor i samma mening som när man talar om kärnor en cpu? En quad core cpu är ju nästan som 4 cpuer, typ.

Permalänk
Datavetare
Skrivet av Herr Kantarell:

Intressant! Hade missat att raytracing hade så mycket gemensamt med machine-learning. Som jag syftade på med hårdvara så har man som du själv nämner tagit fram speciella tensor-cores (och även förklarat varför) för detta även om det i grunden rör sig om flyttalsoperationer.

OK, tror vi menar exakt samma sak här. D.v.s. att i teorin kan alla GPUer göra raytracing (d.v.s. de har stöd för DXR, DirectX Raytracing) men i praktiken kommer nog dagens modeller bara klara av väldigt enkel användning av tekniken.

Däremot har raytracing och machine-learning egentligen ingenting gemensamt mer än att de, likt väldigt många andra problem, kan hanteras väldigt effektivt m.h.a. matriser och linjär algebra.

Varje "CUDA-core" och "stream-core" i GPUerna definieras ju som en FMA-lane. D.v.s operationen

r = a * b + c

vilket är exakt samma operation som för tensor-cores på hög nivå. Skillnaden är att en FMA-lane gör operationen på skalärer medan tensor-cores gör det på 4x4 matriser och med restriktionen att A och B bara kan innehåller 16-bitars flyttal.

D.v.s. "vanliga" GPU operationer motsvarar många väldigt simpla beräkningsenheter. Det fungerar väl så länge uppgiften är extremt data-parallellt med extremt låg varians mellan vad olika "lanes" ska beräkna.

Tensor-cores motsvarar en väldigt avancerad beräkningsenhet (en med väldigt hög "IPC"), dock bara för en väldigt specifik uppgift (CUDA-cores / stream-cores är ju i grunden lika smala då de definieras av en FMA, fast de kan även göra andra saker).

Machine-learning delas upp i två rätt separata processer.

  • träning av nätverket, detta är ett massivt data-parallellt och uppgiftsparallellt problem och domineras nästan helt av GPUer och numera även NPUer (Neural Processing Unit). Här jobbar man med MxN matriser där M och N ofta är relativt stora tal, väsentligt större än fyra (men finns algoritmer för att rekursivt bryta ned stora matriser i mindre delar, tensor-cores blir därför ändå supereffektiva)

  • användning av tränat nätverk, ofta är detta inte alls uppgiftsparallellt (så skalar inte superbra över CPU-kärnor) men det är fortfarande rejält dataparallellt (men inte fullt lika mycket som träning) -> lämpar sig ofta bäst att köra på SIMD på CPU (d.v.s. SSE/AVX på x86, AVX-512 har specifik acceleration av detta)

Kanske intressant i sammanhanget om machine-learning

Precis samma optimeringen skulle ju kunna göras i hyfsat många PC-program m.h.a. SSE/AVX+FMA. Problemet så här långt på CPU-sidan har varit att det inte funnits något vettigt sätt att skriva "vektoriserad" kod utanför att hacka assembler... Tror vi kommer få se en rätt bra boost i vissa flyttalsapplikationer nu när det blivit möjligt att skriva sådan kod på ett vettigt sätt i C++17 (tyvärr enda mainstream-språket med sådant stöd så här långt).

Program som t.ex. Cinebench använder ju faktiskt bara en fraktion av tillgänglig kraft, trots perfekt skalning över alla kärnor! Är ungefär 1/4 av kraften som används på Zen, strax under en 1/8 på Skylake och mindre än 1/10 på Skylake X.

rant om dåligt utnyttjande av dagens CPUer i data-parallella problem, allt som kan beskrivas med matriser är i praktiken data-parallellt
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av DGS:

1080ti är ingen refresh, det är som dom andra säger produkter som är segmenterade.
Skillnaden mellan gp 104 och 102 är ingen refresh, dom är alltid planerade och släpps varje generation, anledningen till att ena släpps mycket senare är som sagt för att få konsumenterna att köpa så många grafikkort som möjligt.

Anledningen till att man ej kan jämföra gp 102 (1080ti) och nästa generations xx80 kort är att dom kommer vara bygda av helt olika sorters (olika stora som procent av nvidias värstingkrets g 100) kretsar. Gp 104 (1080) var 314mm2 och gp 102 var 471mm2, därför kan du inte jämföra dom, det är som att jämföra en ny i5a mot förra generationens i7a, för att kunna jämföra skillnaden mellan arkitekturerna (eller snarare skillnaden mellan hur mycket nvidia kommer undan med att segmentera marknaden) så måste man kolla på 1080 mot xx80 alternativt 1080 ti mot xx80 ti.

Skrivet av DasIch:

Nej, det finns ingen motsägelse i det jag skrev. Jag har inte missat att GP är Pascal. Om du ska jämföra med CPU är dock den mest korrekt jämförelsen i5 mot i7 av samma generation. 80-serien är nVidias "high-end" för spelkort, och Ti är "entusiast".

Beroende på test, ja. Kolla speltesten här:
http://gpu.userbenchmark.com/Compare/Nvidia-GTX-980-Ti-vs-Nvi...

Det återstår att se men ryktet om 8% ökning mot 1080Ti är inte alls osannolikt.

Jo, ta 6700K vs 7700K istället då, det är lika cache, cores, chipset, socket, hyperthreading. Bara aningen snabbare. Det är vad de menar med Refresh.

Sen har NVIDIA aldrig sagt att Ti är deras entusiast serie, de har använt ordet "Enthusiast" lika många gånger i deras press media på icke-Ti korten.

Du ska även aldrig kolla på userbenchmark, det är inte alls korrekt siffror, scrolla bara ner till testerna så ser du hur rörigt det är med alla usla benchmarks & spel de använder sig av.

Ryktet om 8% är extremt osannolikt då de senaste 8st high-end korten av NVIDIA har haft 28% average ökning av prestanda vid varje kort (80 > Ti > 80 Ti > 80 > Ti). Varför skulle de nu endast öka med 8%, det skulle då inte finnas någon anledning för de flesta att uppgradera från sina GTX 1080 Ti vilket leder till stor förlust för NVIDIA.

Nytt i GTX 1080 från GTX 980 Ti
28% Snabbare
GP104-400 med 2560 SP, 160 TMU, 64 ROU & 20 SM (314mm2) 250W
256-bit 1GB x 8 (320 GB/s)
TSMC 16nm FinFET
CUDA Compute Capability 6.1
DisplayPort 1.4
HDMI 2.0b
HDCP 2.2
NVENC HEVC Main10
GPU Boost 3.0
Simultaneous Multi-Projection
HB SLI Bridge Technology
GDDR5X
Dynamic load balancing scheduling system
Instruction-level preemption

Nytt i GTX 1080 Ti från GTX 1080
32% Snabbare
GP102-350 med 3584 SP, 224 TMU, 88 ROU & 28 SM (471mm2) 180W
352-bit 1GB x 11 (484 GB/s)
Ingen DVI-DL
6+8-Pin

Där tog skillnaderna slut, siffrorna 104 mot 102 spelar ingen roll förutom i prestanda. Att kortet har fler cuda kärnor, snabbare och mer minne, påverkar endast prestanda. Likt Intel Refresh, 6700K mot 7700K, det enda nyare 7700K tillför är Intel Optane Support, 4K HEVC10-bit och VP9 vilket nästan inga använder. Samt prestanda.

Därför kan man absolut dra paralleller mellan Intel Refresh och GTX Ti.

Har man ett GTX 1080 Ti i sin dator idag, sedan byter ut det mot ett GTX 1080, går det inte att märka av någon skillnad i funktionalitet, då det i stort sett är precis samma grafikkort, bara lägre prestanda. Att säga Ti är en "ny produkt" är extremt vilseledande. Det är samma kategori (arkitektur), inget är mer spel än det andra då Ti släpptes 10 månader efter, det enda man betalar för vid uppgradering är rå prestanda.

RTX 2080 är en ny produkt
% Snabbare
GA104-400 med _ SP, _ TMU, _ ROU & _ SM (_mm2) _W
256-bit 1/2GB x 8 (576 GB/s)
TSMC 12nm FinFET
NVIDIA RTX™ Technology
Tensor Cores
CUDA Compute Capability 7.0
HDMI 2.1
HDCP 2.3
GDDR6
8-Pin

Och mycket mer som vi snart får reda på om någon vecka.

Skrivet av SweClockers:

Intel har kört en modell som kallas Tick-Tock, som gått ut på att de vartannat år introducerar en ny tillverkningsteknik med en redan befintlig arkitektur. Sedan början av år 2016 är det uttalade målet att en befintlig arkitektur introduceras på en ny tillverkningsteknik, som sedan optimeras, innan det åter är dags för en ny teknik för tillverkning.

Skrivet av murklor:

Ett GTX1080 är i runda slängar dubbelt så snabbt som det GTX Titan Black som släpptes några år tidigare, med 2gb extra minne som bonus... och 1080 kostade hälften så mycket som Titan.

Hur tänkte du nu? Det är så här grafikkorts releaser fungerar. Annars skulle vi ha grafikkort som kostar minst en halv miljon idag för att dom skulle aldrig sänka priset ju snabbare dom är.

Vad yrar du om? GTX 1080 släpptes över 2 år efter Titan Black, som dessutom inte var ett gaming kort, då det hade double precision. Går inte att jämföra på något vis.

Skrivet av anon52343:

Sjukt trött på dessa överpriser som håller i sig, uråldriga 1080 ti fortfarande rena rånet. Om nextgen blir +12k eller något sånt löjligt pris blir det att hunta begagnat när "alla andra" uppgraderar.

Bara köpa GTX 1080 då, du får alla funktioner av Ti fast lägre prestanda, kostar 5500kr vilket är fullt rimligt.

RTX 2080 lär ta kostnaden av GTX 1080 Ti, alltså 7 till 8 tusen kronor.

Skrivet av cracko:

De får ju sluta mjölka oss på pengar, 8-10k för kort som inte kan maxa spel liksom.

1st GTX 1080 Ti motsvarar 2st GTX 980, 3st GTX 780, och 6st GTX 580 i prestanda. Jag har kört 3st GTX 780 under många år och att se den prestandan i ett enda kort med nästan fyra gånger högre VRAM är fantastiskt, samtidigt som det har DP1.4 och HDMI 2.0b vilket gör det kompatibelt med alla skärmar man kan tänka sig (inklusive HDR).

Spelar nästan exklusivt i 4K med GTX 1080 Ti överklockat till 2050MHz. Endast några få spel som jag måste sänka upplösningen till 1620p från 2160p för att få 100 FPS.

Skrivet av Herr Kantarell:

Hårdvaruaccelererad raytracing kräver just vad det första ordet säger: hårdvara. Det innebär att nVidia måste offra yta på chippet som normalt används till annat. Därför skulle jag inte alls vara förvånad som det stämmer med 8%. Och andra sidan så är det säkert flera hundra procent bättre än GTX 1080 ti på raytracing.

Det stämmer inte alls om man tittar på Titan V.

https://uk.hardware.info/reviews/8071/2/the-first-volta-nvidi...

https://uk.hardware.info/reviews/8071/3/the-first-volta-nvidi...

Visa signatur

Projektlogg: Vector Qlimax

X APEX, 8700K @ 5200MHz, Trident Z 16GB @ 4133MHz CL16, RTX 2080 Ti, 970 M.2 SSD, RM1000x, EK A240

Permalänk
Medlem
Skrivet av zhrooms:

Vad yrar du om? GTX 1080 släpptes över 2 år efter Titan Black, som dessutom inte var ett gaming kort, då det hade double precision. Går inte att jämföra på något vis.

Går alldeles utmärkt att jämföra med ett scenario där nästa generation kommer släppas över 2 år efter förra generation. Poängen är att grafikkort blir alltid snabbare men nej, dom blir inte alltid dyrare i samma klass. Verkligheten fungerar inte så.

Du kan ta vilket scenario som helst. GTX780Ti på $699 vs GTX980 på $549 - inte ens 2 år mellan dom har jag för mig. Prestanda skillnaden är förmodligen rätt så nära de siffrorna som uppgetts mellan GTX1080Ti och RTX2080 från vad jag sett. Hur kunde Nvidia släppa ett kort 3000kr billigare och ändå matcha det ja väldigt konstigt...

Permalänk
Master of Overkill
Skrivet av murklor:

Går alldeles utmärkt att jämföra med ett scenario där nästa generation kommer släppas över 2 år efter förra generation. Poängen är att grafikkort blir alltid snabbare men nej, dom blir inte alltid dyrare i samma klass. Verkligheten fungerar inte så.

Du kan ta vilket scenario som helst. GTX780Ti på $699 vs GTX980 på $549 - inte ens 2 år mellan dom har jag för mig. Prestanda skillnaden är förmodligen rätt så nära de siffrorna som uppgetts mellan GTX1080Ti och RTX2080 från vad jag sett. Hur kunde Nvidia släppa ett kort 3000kr billigare och ändå matcha det ja väldigt konstigt...

Ta gärna topkrets vs topkrets.
780ti vs 980ti MSRP

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

sitter och väntar att det ska bli köp hysteri så man kan fynda ett GTX1080 eller GTX1080TI
kör inte 4k så jag klarar mig bra

Visa signatur

Låda thermaltake view 91 M-kort ASUS X399 ROG Zenith Extreme CPU AMD Ryzen Threadripper 1920X 3.5 GHz Kylning Hemma byggd vattenkylning 2 x 480mm + 1 x 420mm radiatorer Minne 8 X 16Gb DDR4 HD SSD 240GB OCZ Trion 100 Grafik Gigabyte Geforce RTX 3080 10GB GAMING OC WATERFORCE WB AGG Corsair RM 1000w 80+ Gold Skärm ASUS 43" ROG Strix XG438QR 4K VA HDR 120 Hz

Permalänk
Medlem
Skrivet av zhrooms:

RTX 2080 lär ta kostnaden av GTX 1080 Ti, alltså 7 till 8 tusen kronor.

7-8 tusen? Av 45 stycken 1080ti på prisjakt är det två kort som kostar under 8000.
Mer rätt är nog 8500-9500 kronor.

Permalänk
Hjälpsam
Skrivet av Sveklockarn:

Inom humaniora kan det vara en vettig inställning, men inte nödvändigtvis när det gäller teknik.

Det är tvärtom bättre att använda tekniska termer som är användbara när man själv vill söka information på nätet. Ingen kommer att använda "strålspårning" som nyckelord för sökningar om raytracing.

Inget som skiljer där som för annat, vi söker ofta på den engelska termen, även när vi har svenska ord.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Om nu ray tracing blir så mycket snabbare med dessa kort vad är det för mjukvara som kommer kunna dra nytta av detta? Då pratar jag inte om professionella applikationer utan mjukvara för vanliga konsumenter. Finns det ens spel som använder sig av tekniken? Har för mig att Fallot 4 hade "godrays" för de som körde med Nvidia kort men är det ens samma sak som ray tracing? Finns också några "realistiska" demos ute i senaste Unreal Engine men det är väl inte heller äkta ray tracing?

En sak är säker. Mer realistisk ljussättning i spel kommer höja upplevelsen så kul ifall rykten stämmer och isf hoppas på snabb och fullständig implementering av teknologin.

Permalänk
Medlem
Skrivet av ArtMan:

Finns det ens spel som använder sig av tekniken? Har för mig att Fallot 4 hade "godrays" för de som körde med Nvidia kort men är det ens samma sak som ray tracing?

Nej, det är inte riktigt samma sak. Raytracing används i 3D-program för att spåra reflektioner, refraktion genom typ glas, vatten osv. och öht följa en och samma "stråle" ljus från källa till slut. Man använder raytracing för skuggor, volymljus, reflektioner, ljusbrytning, lite grann i final gatheringprocessen (typ ambient occlusion fast på riktigt) och så.

Tror att det finns till spelmotorer redan för applikationer som inte är just 100+ fps-renderade konsumentapplikationer utan mer typ visuella effekter och sånt som t.ex. Unreal redan används en del till.

Visa signatur

Bara fanboys kallar folk för fanboy!

Permalänk
Master of Overkill
Skrivet av MrByte:

7-8 tusen? Av 45 stycken 1080ti på prisjakt är det två kort som kostar under 8000.
Mer rätt är nog 8500-9500 kronor.

Ta lanserings pris inte efter mining hysteri

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240