GPGPU är framtiden enligt Nvidia

Permalänk
Melding Plague

GPGPU är framtiden enligt Nvidia

Förutom att arbeta på nya grafikkort och styrkretsar för moderkort funderar Nvidia mycket på framtiden. Under ett pressevent har Nvidia delgett sin syn på grafikkortens framtid.

Läs nyheten

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Bra om grafikkortets prestanda kan användas till mer än bara spel.

Permalänk

Ja, jag tror absolut att GPU'n kommer att användas till mer än bara spel. GPU kan ju beräkna fruktansvärt fort.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Hedersmedlem
Citat:

Trots hårdare konkurrens i framtiden tror Intel därför att grafikprocessorn definitivt inte kommer att försvinna, utan enbart kommer att bli mer och mer relevant.

Sista meningen: är det verkligen Intel som avses i sista meningen? Kanske nVidia?

Jag försöker inte vara petig, utan blev bara aningen förvirrad... i och för sig mitt konstanta tillstånd.

Permalänk

Är det någon som har provat ATI:s motsvarighet till CUDA? (tror den kallas stream). Jag har försökt hitta information på atis sida, men där står i princip bara att stream finns och att det används av folding@home, jag hittar ingen kompilator eller någon referensmanual.

NVIDIA ligger helt klart långt framför ATI när gäller att göra gpgpu tillgängligt för alla, jag provade på CUDA för nästan ett år sedan och redan då fungerade det riktigt smidigt (på mitt första försök blev prestandan ca 10ggr högre när jag använde ett 8600GT jämfört med en P4 3GHz).

Edit: Mitt program gjorde ganska specialiserad bildbehandling som lämpade sig väldigt väl för parallella beräkningar.

Permalänk

Det här är ju skitbra men jag håller fortfarande inte med om "processorn är död." Försök köra en server till ett stort bolag på GTX 280:s GPU som tuffar på i 600 mhz och jämför det med två stycken QX9771 i 3.2 ghz var.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Citat:

Ursprungligen inskrivet av oscarstegland
Det här är ju skitbra men jag håller fortfarande inte med om "processorn är död." Försök köra en server till ett stort bolag på GTX 280:s GPU som tuffar på i 600 mhz och jämför det med två stycken QX9771 i 3.2 ghz var.

Den som påstår att en vanlig GPU kan ersätta en riktig CPU har inte riktigt koll på vad det handlar om, en GPU är väldigt bra på att utföra SIMD-operationer (Single Instruction Multiple Data), de flesta vanliga program kör bara en tråd där de flesta operationer måste utföras sekvensiellt, i sådana fall är en GPU faktiskt värdelös. Som jag ser det så är GPGPU mest intressant för forskning och utveckling där man väldigt billigt kan få tillgång till ett litet "superdatorkluster", samt i några andra specialiserade tillämpningar t.ex. bildbehandling och folding@home.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av KimTjik
Sista meningen: är det verkligen Intel som avses i sista meningen? Kanske nVidia?

Jag försöker inte vara petig, utan blev bara aningen förvirrad... i och för sig mitt konstanta tillstånd.

Blev också förvånad när jag läste detta.

Visa signatur

Core i5 2500K@4Ghz, 8 Gb Kingston Hyper X 1600 DDR3, MSI Z68-GD55, OCZ Vertex 4, Asus GTX670 DC2, Corsair VX 450.
Kyld av Hyper 212 Plus Evo: Corsair SP120 Quiet PWM, 3 Nexus Real Silent 120 mm @ 7V.

Permalänk
Medlem

Det lite ironiska i att Nvidia pushar för att GPUs ska användas till andra saker än spelande är att Intel troligtvis kommer att ha ett enormt försprång där då Larrabee kommer att använda sig av x86 instruktioner.

Gällande CUDA vs CtM (Close to Metal, ATI:s motsvarighet) så lanserades båda i början av 2007. Båda har sina fördelar och nackdelar men de mest nämnvärda är väl att CtM är Open Source och att CUDA knackar man i C.

Hur det än blir kommer framtiden att ge oss mer nytta av våra grafikkort, och det är positivt!

Permalänk
Citat:

Ursprungligen inskrivet av H_Celine
Det lite ironiska i att Nvidia pushar för att GPUs ska användas till andra saker än spelande är att Intel troligtvis kommer att ha ett enormt försprång där då Larrabee kommer att använda sig av x86 instruktioner.

Gällande CUDA vs CtM (Close to Metal, ATI:s motsvarighet) så lanserades båda i början av 2007. Båda har sina fördelar och nackdelar men de mest nämnvärda är väl att CtM är Open Source och att CUDA knackar man i C.

Hur det än blir kommer framtiden att ge oss mer nytta av våra grafikkort, och det är positivt!

Aha, CTM var det, konstigt att det skulle vara så svårt att hitta, tack så mycket det ska jag definitivt titta närmare på.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Scheimpflug
Är det någon som har provat ATI:s motsvarighet till CUDA? (tror den kallas stream). Jag har försökt hitta information på atis sida, men där står i princip bara att stream finns och att det används av folding@home, jag hittar ingen kompilator eller någon referensmanual.

Ditt bästa alternativ är troligen att hålla koll på utvecklarnas forum: http://forums.amd.com/forum/categories.cfm?catid=328

AMD Stream SDK v1.1 är nu tillgänglig för både Windows (jag är osäker men har för mig att stöd endast finns för XP) och Linux. Grafikkort som stöds är Radeon HD2000/3000 eller ett workstation kort.

Permalänk
Inaktiv

7 exaflop är ganska mycket.

Permalänk

En del som lite grann glömts bort i hela diskussionen kring alla uttalanden från nVidia och Intel är ju att alla dessa är företag med mycket specifika inriktningar och massvis med kapital på spel. Deras uttalanden är inte direkt oberoende, även om det är deras "forskare" eller "engineers" som uttalar sig har de med all säkerhet mycket tydliga riktlinjer för vad deras åsikt ska vara (om de inte är smarta nog att komma på den åsikten själv).

Så "nyhetsvärdet" * eller vad man ska säga är ju inte så högt. Det är klart Intel säger att CPU är framtiden och nVidia säger att GPU är framtiden, allt annat vore ju ren kapitalförstöring av aktieägarnas pengar och de skulle förmodligen få en rejäl avhyvling av chefen.

Jag tror att båda vägarna fortfarande är möjliga rent tekniskt, det finns ju fördelar med båda. Så nu tror jag det handlar mycket om att företagen vill påverka marknaden att svaja åt deras håll, mycket handlar ju om vilken väg marknaden väljer, och båda företagens framtiden hänger ju rätt mycket på det. Lite samma princip som HD-DVD/Blue-ray eller andra "standard-krig", fast på lite mer abstrakt nivå... plus att Intel inte direkt går i konken bara på detta

* Missförstå mig rätt, jag menar inte att man ska sluta skriva om sånt här, det är intressant...Men själva uttalandena i sig är lika förvånande som att Svanberg skulle gå ut med att Ericsson-aktien är för lågt värderad, eller att VD i TyggHansa skulle säga att det är bra att vara försäkrad.

Permalänk

när får vi se GPU-CPUer? ^^

Visa signatur

-[ {AMD X4 955} {Crosshair III} {6870 2gb} {Corsiar 4Gb DDR3} ]-

Permalänk
Medlem

Lite lustigt att när Intel säger att dom ska börja göra processorer som sköter grafik också så säger Nvidia mer eller mindre att dom är dumma i huvudet. Sen säger Nvidia att dom ska börja göra grafikkort som sköter vanliga beräkningar också. Har jag missat något här, eller är det inte lite samma sak?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Scheimpflug
NVIDIA ligger helt klart långt framför ATI när gäller att göra gpgpu tillgängligt för alla, jag provade på CUDA för nästan ett år sedan och redan då fungerade det riktigt smidigt (på mitt första försök blev prestandan ca 10ggr högre när jag använde ett 8600GT jämfört med en P4 3GHz)

AMD verkar kriminellt dåliga på att marknadsföra sin produkt. Kommer väl att dö Atari/Sega-döden om inget händer på den fronten. Har en kompis som knackar CUDA hela dagarna, verkar onekligen som AMD's variant är bättre på många vis, men CUDA har bättre support till utvecklare, och vinner på så sätt.

Visa signatur

WS: Asus X570-E, Ryzen 5900x, 2x16GB Ballistix E-die, EVGA 3080 FTW3 Ultra
FS: Asus X370-F, Ryzen 3600, 4x8GB G.Skill Flare, GT710, CM Stacker
HTPC: Asus F2A85-M, A10-5800K, 2x4GB G.Skill 2133MHz