Intel: GPU mångdubbelt snabbare än CPU

Permalänk
Melding Plague

Intel: GPU mångdubbelt snabbare än CPU

En forskningsrapport från Intel ger oanade konsekvenser. Processorjätten påvisar själva att Nvidia Geforce GTX 280 är mångdubbelt snabbare än Core i7.

Läs artikeln

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Avstängd

Ganska logiskt när GTX 280 har 240kärnor och I7 har 4kärnor...

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem

lol vilken soppa!
en dator kan varken fungera utan CPU eller GPU (om man nu vill ha nice prestanda), så what's the point of this?

Visa signatur

Awesome stuff can be found @ www.demonshalo.com
follow us on twitter: www.twitter.com/demonshalo_com

Permalänk
Medlem

Jag förstår inte riktigt varför Nvidia gottar sig så i det här. Visst har det kommit bättre grafikkort sedan GTX280, men jag hade nog förväntat mig mer skillnad i parallelliserade beräkningar. Hur ser skillnaderna ut om vi tar beräkningskraft i förhållande till strömförbrukning?

Permalänk
Medlem
Skrivet av Wic:

lol vilken soppa!
en dator kan varken fungera utan CPU eller GPU (om man nu vill ha nice prestanda), så what's the point of this?

intel : spräcka myten om 100 ggr snabbare till upp till 14.9

nvidia: påvisa att gpgpu borde användas flitigare

Visa signatur

Meshilicious, Amd 9950X3D, Asus X870E-I ,96 GB DDR5 6000,RTX5090 FE, Crucial 4TB Pcie5 m.2 / Corsiar Pcie4 4TB, Samsung 57" G9 , Samsung 49" G9 Oled

Permalänk
Medlem
Skrivet av MrPasty:

Jag förstår inte riktigt varför Nvidia gottar sig så i det här. Visst har det kommit bättre grafikkort sedan GTX280, men jag hade nog förväntat mig mer skillnad i parallelliserade beräkningar. Hur ser skillnaderna ut om vi tar beräkningskraft i förhållande till strömförbrukning?

Uhmm... Säg att en inten I7 tar 100W, en gtx280 200 W.
Intel gör en uppgift på 1h, en gtx på en tiondel av det.
i7 100w/h, gtx 20w/h

Detta var inte på något sätt ett vetenskapligt inlägg men du förstår säkert vart jag vill komma.

Permalänk
Medlem

Är en GPU verkligen snabbare på alla typer av beräkningar? I så fall behövs verkligen en CPU (om hårdvara/mjukvara var gjorda för att skicka instruktioner till GPUn istället för CPUn)? I dagsläget skulle det ju så klart inte gå, men det borde vara möjligt teoretiskt sett.

Eller vad säger de mer kunniga?

Permalänk
Medlem

lite som att jämföra äpplen med päron här..

Visa signatur

GUD VÄLSIGNE DIG!
Ryzen 7 5700X3D - 64Gb DDR4 - RTX3060 - Coolermaster Stacker
---------------------------- www.roaddogs.se ------------------------
------- Bofors Interstellar - A Star Citizen Corporation --------
---------------------------------- Twitch ---------------------------------

Permalänk
Medlem
Skrivet av Smurfn:

Är en GPU verkligen snabbare på alla typer av beräkningar? I så fall behövs verkligen en CPU (om hårdvara/mjukvara var gjorda för att skicka instruktioner till GPUn istället för CPUn)? I dagsläget skulle det ju så klart inte gå, men det borde vara möjligt teoretiskt sett.

Eller vad säger de mer kunniga?

Nej, eftersom CPU gör så mycket mer än bara beräknar.

Visa signatur

Den här texten är helt j*vla onödig, men den ska vara här helt enkelt.
The Sleeper: Intel Core i7 930+Noctua NH-C12P SE14, Gigabyte GA-X58A-UD3R, XFX HD6970, Corsair 6GB 1600MHz, be quiet! Dark Power Pro P8 750W, WD Black 640GB, Lian Li PC-A77F
MacBook Pro 4,1 17" iMac 12,2 27" Retina MacBook Pro 12,1 13"
CITERA VID SVAR PÅ MINA INLÄGG SÅ ATT JAG FÅR EN NOTIS!

Permalänk
Medlem

Detta var udda.. Som någon påpekade "äpplen och päron"

Visa signatur

Intel i9 10900K | H150i PRO XT | Asus Rog Strix Z490-E Gaming | Asus Strix 3090 OC | G.Skill Trident Z Royal 4x8GB 3600MHZ CL17 | Corsair Force MP600 1TB | Asus Rog Swift PG278QE | EVGA Supernova T2 1600W

Permalänk

Jaha och när ska Intel köpa nVidia ?

Permalänk
Medlem

en i7 har väll runt 50 gflop , medans dagens grafikkort har 2-3 tflop , vet inte om det är enda sättet att mäta prestanda , en den "lilla" skillnaden där bör ju ha några konsekvenser.

Visa signatur

| HAF932 | Ryzen 3700X @ 4,3 GHz | Gigabyte X570 Aorus Ultra | 32 GB G.Skill @ 3600 MHz | RTX 2070 @ 2 GHz | O2 + ODAC | SN850 2TB + MP600 1TB + 2x 4TB SSD RAID 1 + 2x 2TB RAID 1 | Win10 Pro 64-bit |

Permalänk
Medlem
Skrivet av Smurfn:

Är en GPU verkligen snabbare på alla typer av beräkningar? I så fall behövs verkligen en CPU (om hårdvara/mjukvara var gjorda för att skicka instruktioner till GPUn istället för CPUn)? I dagsläget skulle det ju så klart inte gå, men det borde vara möjligt teoretiskt sett.

Eller vad säger de mer kunniga?

Det är just avsaknaden av all funktionalitet som en CPU har som gör att en GPU kan göras så mycket snabbare. (Mer specialiserat, som att jämföra en sportbil med en dragster) Men såsom artikeln påpekar så kan det vara en fördel att använda fler GPU istället för bara CPU när man bygger stordatorsystem. Vilket som är bäst beror dock mycket på hur beräkningarna ser ut. Man kan ha mellanting också, processorer som har allmän funktionalitet men som är effektivare på vissa typer av beräkningar, specifika för vissa ändamål, som t ex serverprocessorer.

I PS3 så har IBM satt en "vanlig" processor och 6 st enklare processorer (mer åt GPU-hållet alltså).
Dvs ett mellanting där man bakåt ihop CPU- och GPU-liknande arkitektur.

---
Huvudvärk, så är lite borta i skallen förtillfället, men tror det jag skrivit är vettigt. Rätta mig gärna om jag skrivit något är fel.

Permalänk
Medlem

Vissa saker lämpar sig inte direkt till att skapa 100+ trådar för och eftersom en kärna på processorn är så mycket bättre än en på grafikkortet så skulle dessa program vara avsevärt långsammare. Visst många program går att tråda, mycket väldigt mycket, men det är betydligt svårare med andra som kräver massiv synkning utav data, t.ex. spel.

Visst är det nog inte omöjligt att dela upp ett spel i 100 trådar, som körs samtidigt då och inte bara någon liten algoritm. Men jag tvivlar starkt på att det skulle ge bättre prestanda i dagens läge, dock säger jag inte att det är omöjligt.

Däremot kan man ju tråda vissa algoritmer och köra dessa på grafikkortet, vilket redan kan ses idag - fysik (PhysX), men också partikeleffekter och liknande skulle kunna skjutsas över på ett annat grafikkort.

Eftersom jag inte är så insatt i annat än spelprogrammering, finns det mer sorters program som är svårt att tråda? GUI bör vara ganska enkelt att tråda vad jag tror, men det beror ju också lite på innehållet i programmet.

Vad jag tror kommer hända i framtiden för speldatorer är:
1 CPU som fortfarande är en stor del utav datorn.
1 GPU för att rita upp själva spelet
1 GPU för beräkning utav paralleliserbara algoritmer - fysik, partiklar, etc.

Möjligtvis om grafikkortet blir tillräckligt kraftfull behövs inte ett extra utan att det räcker med ett grafikkort. Det andra grafikkortet behöver då inte vara ett extremt dyrt grafikkort, det kanske räcker med en för 500-1000kr.

För min del hoppas jag på det, då kanske äntligen AI:n kan få en större mängd processorkraft till sitt förfogande

Visa signatur

Ursäktar min wall-of-text.

Permalänk
Avstängd

Ännu mer anledning till att överklocka

Permalänk
Avstängd
Skrivet av Wic:

lol vilken soppa!
en dator kan varken fungera utan CPU eller GPU (om man nu vill ha nice prestanda), så what's the point of this?

Att man kan skapa en APU likt AMD;s Fusion
För övrigt håller jag med, vill ha båda två beräkningschipen för sig, så att man kan uppdatera det som det sviktar med istället för o behöva köpa både och samtidigt i o m att de blir samma chip då =P

Visa signatur

CPU: Ryzen 7 1700, kylare: Noctua NH-L12, Mammabräda: Gigabyte AX370 Gaming-K3, RAM: Corsair LPX 3200Mhz @ 3066Mhz vid 1,35V stabilt, GPU: MSI 1080 Ti Gaming X, PSU: Corsair SF600, Lagring: 2xWD Red 3TB speglat, 1x Samsung Evo 960 256GB, Chassi: Inbyggt i skrivbordet, sörjer för sval lägenhet.

Permalänk
Medlem
Skrivet av Sephroth:

Vissa saker lämpar sig inte direkt till att skapa 100+ trådar för och eftersom en kärna på processorn är så mycket bättre än en på grafikkortet så skulle dessa program vara avsevärt långsammare.

Det är till och med värre än så. På NVIDIAs GT200-arkitektur så bör man ha minst 24 trådar per SP för att använda GPUn optimalt, vilket för t.ex. GTX 280 betyder minst 5760. Så för bra prestanda på en GPU så är det tusentals trådar som gäller.

Sen får vi inte heller glömma minnet, att accessa det globala minnet på GT200 (dvs. den stora mängden minne som är det som anges i specifikationerna), tar ca 400-600 klockcykler. Så för att få bra prestanda på en GPU i dag så gäller det att man har en extremt parallell algoritm, där varje SM bara behöver använda en liten bit data som inte behöver delas med andra SMs.

GPGPU är givetvis ett väldigt intressant forskningsområde som i vissa fall kan ge en mycket bra speedup jämfört med en vanlig processor, men man får ju inte glömma att det än så länge finns väldigt få användningsområden där GPGPU verkligen är effektivt. T.ex. spel kämpar ju fortfarande med att utnyttja processorernas 4-6 kärnor, och att dela upp spel i tusentals trådar är ju bara att glömma än så länge.

Intels Larrabee var ju rätt så intressant faktiskt, då den bestod i ett färre antal processorer än dagens grafikkort, men där varje kärna kunde utföra vektor-operationer. Det känns lite som att det är en möjlig väg att gå, dvs. stoppa in mer möjlighet till parallellism i CPUerna (det finns ju redan t.ex. SSE), men fortfarande ha kvar de få kraftfulla kärnorna. Intel har ju redan gjort något liknande när de integrerat GPUer i sina Core i3 och Core i5, men att integrera parallellismen mer i CPUn skulle göra det lättare för kompilatorerna att utnyttja det samtidigt som man får bättre prestanda.

Permalänk
Hedersmedlem
Skrivet av Sephroth:

Däremot kan man ju tråda vissa algoritmer och köra dessa på grafikkortet, vilket redan kan ses idag - fysik (PhysX), men också partikeleffekter och liknande skulle kunna skjutsas över på ett annat grafikkort.

Eftersom jag inte är så insatt i annat än spelprogrammering, finns det mer sorters program som är svårt att tråda? GUI bör vara ganska enkelt att tråda vad jag tror, men det beror ju också lite på innehållet i programmet.

Typiskt för problem som är lämpliga att lösa med en GPU är att de består av enormt många delar som vardera hyfsat enkelt kan lösas oberoende av övriga. Grafik-, geometri- och fysikberäkningar går alla till största delen ut på att multiplicera matriser och detta är ungefär det optimala användningsområdet. Att GUI:n skulle kunna dra så stora fördelar av acceleration betvivlar jag dock (så länge man inte vill göra avancerade 3d-effekter och liknande); ofta är det ju dessutom användarens långsamhet som begränsar dessa.

Skrivet av Sephroth:

För min del hoppas jag på det, då kanske äntligen AI:n kan få en större mängd processorkraft till sitt förfogande

Frågan är hur mycket som kommer att hända de närmaste åren; redan nu är väl de flesta processorer mer än tillräckligt snabba och vi har väl inte direkt sett någon revolution på området? Kanske är det bara svårt att modellera intelligent beteende.

Permalänk
Medlem

Det står sedan innan klart att Intel och Nvidia ingår i en kartell för att konkurera ut AMD och ATI,

Permalänk
Avstängd
Skrivet av icelaw:

Det står sedan innan klart att Intel och Nvidia ingår i en kartell för att konkurera ut AMD och ATI,

Och de verkar lyckas få okunniga konsumenter med sig :/

För övrigt slog det mig en tanke, Är Nvidia;s Tesla samma arkitektur och kan vara värre beräkningschip ändå eller är de baserade på samma arkitektur som GTX 280 och har således samma antal kärnor med? =P Tänkte om det gick o få mera värre, eller om ATI;s nuvarande arkitektur är värre

Visa signatur

CPU: Ryzen 7 1700, kylare: Noctua NH-L12, Mammabräda: Gigabyte AX370 Gaming-K3, RAM: Corsair LPX 3200Mhz @ 3066Mhz vid 1,35V stabilt, GPU: MSI 1080 Ti Gaming X, PSU: Corsair SF600, Lagring: 2xWD Red 3TB speglat, 1x Samsung Evo 960 256GB, Chassi: Inbyggt i skrivbordet, sörjer för sval lägenhet.

Permalänk
Avstängd
Skrivet av RazerBlader:

Och de verkar lyckas få okunniga konsumenter med sig :/

För övrigt slog det mig en tanke, Är Nvidia;s Tesla samma arkitektur och kan vara värre beräkningschip ändå eller är de baserade på samma arkitektur som GTX 280 och har således samma antal kärnor med? =P Tänkte om det gick o få mera värre, eller om ATI;s nuvarande arkitektur är värre

Okunniga konsumenter? ta dig en titt på det du precis skrev..... Man ska inte kasta sten i glashus.

Permalänk
Avstängd
Skrivet av cratzky:

Okunniga konsumenter? ta dig en titt på det du precis skrev..... Man ska inte kasta sten i glashus.

Jag syftar inte på fanboy-trams utan mera på de som verkligen inte kan något om datorer alls och inte är inbitna gamers eller dylikt.
Endast de som köper en dator för att Nvidia har detta ess i rockärmen bland annat just nu och likaså Intel kör med med många fulingar enligt mig för att få bort AMD/ATi helt.
Vet inte hur många som har frågat mig om rådgivning vid köp av bärbara datorer samt stationära delar på sistone som har trott att PhysX är något man verkligen måste ha för att kunna få det mesta ur ALLA spel etc, de vilseleder endast okunniga konsumenter med dessa stämplingar enligt mig.
sedan vad du verkligen syftade på och vad som var poängen med ditt inlägg uppfattade jag inte, du får gärna förtydliga dig om jag tolkat ditt inlägg helt åt helskotta i det jag skrev.

Visa signatur

CPU: Ryzen 7 1700, kylare: Noctua NH-L12, Mammabräda: Gigabyte AX370 Gaming-K3, RAM: Corsair LPX 3200Mhz @ 3066Mhz vid 1,35V stabilt, GPU: MSI 1080 Ti Gaming X, PSU: Corsair SF600, Lagring: 2xWD Red 3TB speglat, 1x Samsung Evo 960 256GB, Chassi: Inbyggt i skrivbordet, sörjer för sval lägenhet.

Permalänk

Förstår inte riktigt hur Nvidia kan vara konkurrent till Intel då dom inte gör likartade produkter.
Visst, då en GPU är mycket bättre på flertrådade uppgifter än en CPU(vilket väl man alltid känt till sedan grafikkort introducerades?), och rent tekniskt kanske kan ta över CPUns roll(vilket man inte vetat fullt så länge), kan man väl anse att Nvidia, eller varför inte ATI, konkurrerar med Intel kanske..

Visa signatur

EVGA G2 Supernova 750W, ... , 2x8GB Vengance, MSI GTX760 4GB Gaming Ed + GTX580 3GB Phantom (ej SLI).

Permalänk
Skrivet av RazerBlader:

Jag syftar inte på fanboy-trams utan mera på de som verkligen inte kan något om datorer alls och inte är inbitna gamers eller dylikt.
Endast de som köper en dator för att Nvidia har detta ess i rockärmen bland annat just nu och likaså Intel kör med med många fulingar enligt mig för att få bort AMD/ATi helt.
Vet inte hur många som har frågat mig om rådgivning vid köp av bärbara datorer samt stationära delar på sistone som har trott att PhysX är något man verkligen måste ha för att kunna få det mesta ur ALLA spel etc, de vilseleder endast okunniga konsumenter med dessa stämplingar enligt mig.
sedan vad du verkligen syftade på och vad som var poängen med ditt inlägg uppfattade jag inte, du får gärna förtydliga dig om jag tolkat ditt inlägg helt åt helskotta i det jag skrev.

Tror han syftade på att du ställde en fråga när du precis hade klankat ner på "okunniga konsumenter" (vilket är ett väldigt slarvigt och brett ordval). Ni talar förbi varandra.

Permalänk
Skrivet av Bluestreakfus:

Förstår inte riktigt hur Nvidia kan vara konkurrent till Intel då dom inte gör likartade produkter.

Inte samma produkter men de konkuerrar på samma marknad.

Skrivet av RazerBlader:

Vet inte hur många som har frågat mig om rådgivning vid köp av bärbara datorer samt stationära delar på sistone som har trott att PhysX är något man verkligen måste ha för att kunna få det mesta ur ALLA spel etc, de vilseleder endast okunniga konsumenter med dessa stämplingar enligt mig.

Hur är det företagets fel att vissa kunder tar inte sitt ansvar som kunsumenter och läser på vad de köper?

För det är inte att det saknas information. Tar man en kvart på sig och gogglar så kan man få en bra bild på vad PhysX är för något tex. Att skylla sitt ansvar på företag är bara bekvämt och en ren lathet.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Skrivet av Oktagon:

... Men såsom artikeln påpekar så kan det vara en fördel att använda fler GPU istället för bara CPU när man bygger stordatorsystem. Vilket som är bäst beror dock mycket på hur beräkningarna ser ut. ...

Är man så seriös att man har ett stordatorsystem så är det nog ganska naturligt att optimera koden som ska köra beräkningarna till hårdvaran. Så det är nog inget större hinder.

Visa signatur

SweClockers Dark Pearl tema: http://www.sweclockers.com/forum/trad/1484891
(Rek. Stylus)

Permalänk
Medlem
Skrivet av RazerBlader:

Och de verkar lyckas få okunniga konsumenter med sig :/

För övrigt slog det mig en tanke, Är Nvidia;s Tesla samma arkitektur och kan vara värre beräkningschip ändå eller är de baserade på samma arkitektur som GTX 280 och har således samma antal kärnor med? =P Tänkte om det gick o få mera värre, eller om ATI;s nuvarande arkitektur är värre

Tesla är väl i grunden baserade på samma arkitetkur som geforce korten, fast väldigt optimerade för det dom ska göra, Tex så är kärnan i Quadro FX 5800 benämd (D10U-30 (GT200GL) Vilket antyder att den är baserad på GT200.

Håller för övrigt med #Datanusse
Man kan inte stå och skylla på en tillverkare, jag trodde att det var rätt självklart att man åtminstone försöker kolla upp vad man köper..

Och till RazerBlader, Ja det är väl klart dom försöker vilseleda konsumenterna med olika säljknep, det handlar ju först och främst att tjäna pengar, sen hur man tjänar dom pengarna är en annan sak. men att sen efteråt kasta skit på tillverkaren, för att man inte har gjort sin research är helt och hållet bara fel.

Permalänk
Medlem
Skrivet av MrStalker:

Ungefär samtidigt som grisar börjar flyga och helvettet fryser till is.

Det där med flygande grisar vet jag inte när det började, men den mest kända flygande grisen i modern tid måste vara Pinkfloyds "Animal" gris. Om den har ett namn är dock för mig okänt. Att Helvetet frös till is i början på 1300 talet är ju allmänt känt. (ref: Dante's Inferno)

B!

Visa signatur

Allting jag skriver är om inget annat uttrycks, min åsikt! Ingenting måste vara dagens sanning enligt din åsikt, och gör du antaganden baserade på mina åsikter hoppas jag att du övervägt mer än bara just min åsikt.

Permalänk
Skrivet av DataNusse:

Inte samma produkter men de konkuerrar på samma marknad.

Aha.. vet tydligen inte så mycket om det här. Så tex Nvidias geforce-kort, eller varför inte deras Tesla-kort konkurrerar med Intels processorer på samma marknad? Vilken marknad är det? forskning eller?
Borde inte ATIs grafikkort också vara konkurrerande då?

Visa signatur

EVGA G2 Supernova 750W, ... , 2x8GB Vengance, MSI GTX760 4GB Gaming Ed + GTX580 3GB Phantom (ej SLI).

Permalänk
Medlem

Verkligen synd att Intel inte jämförde deras nyaste arkitektur mot ATi & Nvidias. Skulle ha varit kul att se i7 vs FireStream vs Tesla.

Sen de som drömmer om AMDs kommande Fusion bör nog tänka om. Kommer dröja innan man maxar Crysis på ett integrerat grafikkort. Det går helt enkelt inte att kyla. Fusion och liknande kommer vara för HTPC segment där man bara vill spela film och typ lira Warcraft 3 tillsvidare.