AMD släpper egna CPU-rekommendationer för Oculus Rift

Permalänk
Datavetare

@Paddanx: Crazy setting är ju inte så intressant ur ett CPU-perspektiv då det är helt GPU-begränsat. Tittar man på medium så når trots allt inte DX12 med FX-8350 upp till DX11 siffrorna för i3 6100, så någon gigantisk skalning med CPU-kärnor är det ju inte. Med 980ti i medium så är den relativa förbättring i princip identisk för i3 6100 och FX-8350 medan den är högre för FX-8350 med Fury X.

Då är ändå spel som AotS, d.v.s. RTS med många individuella spelobjekt som är relativt oberoende från varandra, något form av "best-case" om man ska utnyttja många CPU-kärnor. Är inte lika uppenbart i first/third-persion shooters hur man enkelt kan lägga ut arbete över många kärnor.

Men att DX12 främst hjälper svagare CPUer håller jag definitivt med om och är något jag pekat på hela tiden, d.v.s. DX12 lär mer göra enklare CPUer relevanta längre än att det är något som kommer göra det vettigt att börja stoppa in 8/10-kärniga E-serie CPUer i spelriggar. Sweetspot för gaming CPU lär ligga på 4 kärnor med maximal prestanda per tråd under överskådlig tid. Ska man som PC-spelare önska något är det nog mer CPU-cache än fler CPU-kärnor med tanke på hur 5x75C presterar. Även E-serien presterar bättre per klockcykel jämfört med "vanliga" modeller, är rätt säker det mer beror på 15/20 MB L3 cache än de extra kärnorna.

Sedan finns det andra användningsområden för en PC än spel och finns definitivt användningsområden där man aldrig får för mycket CPU-kraft.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Ozzed:

Men själva resultatet av det borde kunna hanteras av hjälmen. Det är ju samma sak med ett pekdon. Du har en analog "insignal" som sedan behandlas av pekdonet och blir till en digital utsignal som datorn sedan begriper. Varför skulle det vara tugnt att beräkna och varför skulle man lämna över det arbetet till CPU som inte alls är lämpad för den typen av beräkningar? Har du källor på att man skulle valt den här typen av i så fall extremt ovanlig lösning eller gissar du bara?

Givetvis kan en del hanteras av hjälmen, och nej jag vet inte hur stor del som är för- / efterbehandlad. Men jag har lite erfarenhet av gyron, och känner till en del om positionstracking med kameror. Det är inte så "bara" att filtrera sådan data med hög precision. Jag har nu svarat på din fråga och kontrar med samma medel: Har du några källor på att denna typ av beräkningar är olämpligt för CPU? Har du någon referens på att en sådan lösning skulle vara ovanlig? Eller gissar du bara?

Eftersom du börjar ditt ordval försiktigt med "borde" men avslutar med starka uttryck som "inte alls" och "extremt ovanlig" låter det mer som att du kompenserar för din egen osäkerhet och försöker övertyga dig själv om att det du säger är korrekt.

Som allmänt känt exempel kan nämnas kinnect, som när det är aktiverat sänker prestandan på en xbox, och alltså drar prestanda från cpu/gpu och inte har tillräcklig dedikerad hårdvara.

Visa signatur

SweClockers Dark Pearl tema: http://www.sweclockers.com/forum/trad/1484891
(Rek. Stylus)

Permalänk
Datavetare
Skrivet av Ozzed:

Men själva resultatet av det borde kunna hanteras av hjälmen. Det är ju samma sak med ett pekdon. Du har en analog "insignal" som sedan behandlas av pekdonet och blir till en digital utsignal som datorn sedan begriper. Varför skulle det vara tugnt att beräkna och varför skulle man lämna över det arbetet till CPU som inte alls är lämpad för den typen av beräkningar? Har du källor på att man skulle valt den här typen av i så fall extremt ovanlig lösning eller gissar du bara?

Vad du behöver är en krets som är bra på att filtrera signaler, d.v.s. en DSP eller något med motsvarande funktioner, vilket man idag hittar i CPUer som har AVX. D.v.s. en modern CPU är väldigt lämpad för den här typen av arbete.

Signalbehandling är däremot inte speciellt lämpad för GPUer då det inte finns speciellt mycket inneboende parallellism i sådant arbete. Att det fungerar bra med AVX som trots allt främst används som SIMD beror på att man specifikt lagt till instruktioner lämpliga för DSP där SSE/AVX-registren används "på längden" i stället för "på bredden" vilket är fallet med "vanlig" SIMD. En GPU kan ses som en SIMD krets med väldigt stor bredd.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd

Det där gills väll inte? Får ju t.ex inte veta hur långt en 9590 klockar. Är det bara klocken som skiljer 9590 från 8350?

Visa signatur

https://mega.nz/#!xNBjAJKA!OQctTR0tY5EK1Dk68MV0loIyCD3ftwL_KI...
(DX-11 DLL-fil till SweetFX/Reshade som är kompatibel med GTA 5)

Permalänk
Medlem
Skrivet av Xaves:

Det där gills väll inte? Får ju t.ex inte veta hur långt en 9590 klockar. Är det bara klocken som skiljer 9590 från 8350?

Det är endast klocken som är skillnaden mellan 8350 och 9590. 8350 vid 4.6 är nästan som 9590 som är vid 4.7 vid flertrådat. Enkeltrådat går 9590 vid 5GHz och det testas ju också med 8350 där.

Visa signatur

Ryzen 7 5800X3D | RX 7900 XT

Permalänk
Medlem

Ett krav är det väl inte med Intel, men Intel är bättre. 60 FPS är ju inget krav häller, dock föredrar ju dom flesta det och mer.

Permalänk
Medlem
Skrivet av Thomaseron:

Jodå, det finns folk som köper AMD fortfarande.
Men jag håller med dig om att det i dagsläget är svårt att rekommendera AMDs CPUer.

Om nån vill spara en peng kanske.

Visa signatur

No man is free who is not master of himself

Permalänk
Medlem
Skrivet av Yoshman:

@Paddanx: Crazy setting är ju inte så intressant ur ett CPU-perspektiv då det är helt GPU-begränsat. Tittar man på medium så når trots allt inte DX12 med FX-8350 upp till DX11 siffrorna för i3 6100, så någon gigantisk skalning med CPU-kärnor är det ju inte. Med 980ti i medium så är den relativa förbättring i princip identisk för i3 6100 och FX-8350 medan den är högre för FX-8350 med Fury X.

Måste vara ironi, för vi har haft denna diskussionen förr med Broadwell, och då plötsligt så spelade medium ingen roll enligt dig. Hur ska du ha det nu? Där argumenterade jag för att om du ska ha mest CPU relativ kraft så får man titta på medium, för då tittade vi på just en CPU och dens prestanda i olika scenarion. Nu tittar vi på vad DX12 kan göra för CPUn när du spelar och om det kan sänka behovet av en värsting CPU, så det är hur du normalt spelar spelet som borde spela roll, och vi vill kunna använda så klen CPU som möjligt. Ingen tvekan att en 6700k är snabbare, men behövs det?

Så det är klart att "Crazy setting" är intressant, om något är det den enda intressanta nivån eftersom vi inte review:ar CPUn i sig själv. Hur många köper 980ti för att spela medium normalt?! Poängen är ju att om CPUn räcker för jobbet, varför måste du har mer, om du bara ska spela? Om en nu nu en i3a/8350 kan göra jobbet, varför ödsla pengarna på en 6700k?!?!

Det är ju hela poängen med DX12, att CPUn inte ska vara flaskhals längre, så vi ska slippa göda Intels värstingar om vi inte direkt "vill det" (vilket jag vet.. många vill )
Men tänk på de med en tajt budget som kan välja en 970/390 och billig i3a/AMD FX (eller gammal 2500k) istället för ett 960/380 och en ny Skylake i5a/i7a så är det exakt det jag hoppades kunna göra med just DX12/Vulkan. Det ger mer för pengarna av hårdvaran du har, istället för "att kräva" att vi måste köpa nyaste värsting CPUn hela tiden, oavsett vad du ska göra med datorn.

Skrivet av Yoshman:

Då är ändå spel som AotS, d.v.s. RTS med många individuella spelobjekt som är relativt oberoende från varandra, något form av "best-case" om man ska utnyttja många CPU-kärnor. Är inte lika uppenbart i first/third-persion shooters hur man enkelt kan lägga ut arbete över många kärnor.

Självklart är det så.
Det vi behöver är helt enkelt fler spel och fler jämförelser för att kunna dra en bra slutsats i generella drag, och det lär dröja. Men samtidigt så finns det också som du själv sagt, potential att förbättra det när spelmotorerna blir optimerade för det, och om Nvidia kan optimera även dessa spel i DX11, så borde "DX12" kunna det också.

Skrivet av Yoshman:

Men att DX12 främst hjälper svagare CPUer håller jag definitivt med om och är något jag pekat på hela tiden, d.v.s. DX12 lär mer göra enklare CPUer relevanta längre än att det är något som kommer göra det vettigt att börja stoppa in 8/10-kärniga E-serie CPUer i spelriggar. Sweetspot för gaming CPU lär ligga på 4 kärnor med maximal prestanda per tråd under överskådlig tid. Ska man som PC-spelare önska något är det nog mer CPU-cache än fler CPU-kärnor med tanke på hur 5x75C presterar. Även E-serien presterar bättre per klockcykel jämfört med "vanliga" modeller, är rätt säker det mer beror på 15/20 MB L3 cache än de extra kärnorna.

Håller med.
Var bara dina ursprungliga kommentarer här som gjorde mig lite förvirrad då du hintade annat, vilket jag inte höll med om. Men då är vi överens nu iaf

Skrivet av Yoshman:

Sedan finns det andra användningsområden för en PC än spel och finns definitivt användningsområden där man aldrig får för mycket CPU-kraft.

Självklart, men om du tittar på 50%+ av hemanvändarna så hade en i3 räckt mer än väl, om de bara kunde spela på den med bra grafik. Tom de flesta på Sweclockers hade nog klarat sig på en i3a/i5a iaf, om den är upplåst och räcker till deras behov. Är inte direkt majoritet av hemanvändare som köper en värsting dator för att maxa en CPU med beräkningar. Det närmaste jag kan tänka mig är att koda film, och där är billig 8-kärnig som 8350 ett klart bra alternativ med tanke på sitt pris. Dessutom börjar GPUn göra mer och mer av alla beräkningar för tyngre jobb, då de är bättre på det, så rå CPU behov är en väldigt liten skara idag, om du inte räknar DX11 spel eller ska dra in företag i en API diskussion

Om nu denna 8350 klarar VR dessutom så lär Zen säkert göra det, så jag ser inte problemet med att välja lämplig CPU efter sitt behov i framtiden, och detta är en fördel på många sätt. Man måste inte ha i7a för att lägga patiens eller andra kortspel

Permalänk
Datavetare
Skrivet av Paddanx:

Måste vara ironi, för vi har haft denna diskussionen förr med Broadwell, och då plötsligt så spelade medium ingen roll enligt dig.

Jag skrev

"Crazy setting är ju inte så intressant ur ett CPU-perspektiv då det är helt GPU-begränsat."

Sedan nämner jag att man måste titta på medium för att dra några större slutsatser om CPU-påverkan, så ser inte riktigt ironin.

Edit:

Skrivet av Paddanx:

Dessutom börjar GPUn göra mer och mer av alla beräkningar för tyngre jobb, då de är bättre på det, så rå CPU behov är en väldigt liten skara idag, om du inte räknar DX11 spel eller ska dra in företag i en API diskussion

GPGPU är så här långt en enorm besvikelse, det används i extremt få fall. Tittar man framåt börjar det blir lite svårt att lura ut vad man ska göra med alla transistorer man kan stoppa in i en CPU då skrivbordslaster inte skalar speciellt väl med CPU-kärnor. Trenden är att alla vanliga uppgifter, som t.ex. att avkoda film, stoppas in som fix-function block. GPGPU är mer energieffektivt än en CPU på en sådan sak som koda film, ett fix-function block är långt mer effektivt så det gör GPGPU meningslöst för den uppgiften. Nu vad avkodning av film ett exempel, men trenden går mot allt mer fixed-function så GPGPU blir mer nischat.

Nästa generation Xeons kommer ha FPGA-stöd för att ge ett alternativt mellansteg mellan fixed-function och CPU, så även där blir GPGPU mer marginaliserat. Vidare så börjar SIMD delen i CPUerna nu knappa in på GPUer vad det gäller rå beräkningskraft, så även där äter man från den kaka som var tänkt för GPGPU. Det lilla som läckt om Pascal verkar ju tyda på att Nvidia än mer kommer prioritera grafik över GPGPU.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Jag skrev

"Crazy setting är ju inte så intressant ur ett CPU-perspektiv då det är helt GPU-begränsat."

Sedan nämner jag att man måste titta på medium för att dra några större slutsatser om CPU-påverkan, så ser inte riktigt ironin.

"@Paddanx: spel är undantaget där 5775C är snabbare än 6700K, men endast när man kör inställningar som ingen i praktiken kommer använda. "
#15612151

Ser du den nu?? Dina egna ord
Vi diskuterade precis samma sits, där medium inställning och ett 980ti ansågs som en inställning ingen kommer använda. Och om svagare CPU räcker då med DX12, så är det högst intressant ur CPU perspektiv med "Crazy setting", då du inte behöver mer än nödvändigt när en i3a kan driva ett 980ti i det läget, eller hur? Du kan se skillnaden på medium, ja, men du behöver inte den där du normalt spelar och den gynnar dig inte när du väl spelar...

Så, hade du fel då, eller nu?, för du argumenterar mot dig själv här.

Skrivet av Yoshman:

Edit:
GPGPU är så här långt en enorm besvikelse, det används i extremt få fall. Tittar man framåt börjar det blir lite svårt att lura ut vad man ska göra med alla transistorer man kan stoppa in i en CPU då skrivbordslaster inte skalar speciellt väl med CPU-kärnor. Trenden är att alla vanliga uppgifter, som t.ex. att avkoda film, stoppas in som fix-function block. GPGPU är mer energieffektivt än en CPU på en sådan sak som koda film, ett fix-function block är långt mer effektivt så det gör GPGPU meningslöst för den uppgiften.

Vidare så börjar SIMD delen i CPUerna nu knappa in på GPUer vad det gäller rå beräkningskraft, så även där äter man från den kaka som var tänkt för GPGPU.

I de uppgifter som GPUn kan användas som beräkningskort så gör den så, tex folding osv. Självklart är dedikerade chip bättre på jobbet, men poängen kvarstår att oavsett GPU eller dedikerade chip... du behöver inte mer generell CPU kraft för det

För om något är en besvikelse så är det CPU prestandan på värstingarna 2015 vs 5 år gamla CPUer. 5% aint worth shit. Men om vi numera inte behöver dem längre så är det ingen nackdel längre, då vi får billigare datorköp istället.

Så vad är det vi argumenterar här. Att du måste ha i7a för att starta notepad, eller vad är det du vill ha sagt? Att det finns bättre sätt att lösa tunga uppgifter än ren CPU kraft, ja, det håller jag med om.

Men varför ska vi som hemanvändare då spendera tusentalskronor extra på en värsting CPU, om nu du får mer nytta av tex en SSD eller ett bättre grafikkort för pengarna?

Spela in video samtidigt som man spelar gör jag på en 3350p med grafikkortets funktioner utan problem. Koda film kan du som sagt göra på billigare 8350, eller gammal 2600k om du verkligen ska ta i, och det finns även de som kan använda grafikkort eller hårdvaru chip för det.
Varför måste jag ha en splitter ny värsting CPU, om nu framtida spel kan klara sig på en i3as kraft för 980ti kort och allt annat finns andra lösningar för??

Permalänk
Datavetare
Skrivet av Paddanx:

"@Paddanx: spel är undantaget där 5775C är snabbare än 6700K, men endast när man kör inställningar som ingen i praktiken kommer använda. "
#15612151

Det jag skrev där stämmer ju till 100%. För en diskussion om CPU påverkar vill man ta bort GPUn ur ekvationen, men är målet att faktiskt spela spelet, vilket min kommentar om 5775C kontra 6700K riktar sig mot, finns idag inget spel där CPU är flaskhals ens med 980ti och t.ex. 6700K med inställningar som ändå når > 60 FPS. Är ju knappt så att en i3 6100 är flaskhals i det läget, även om det finns spel som visar motsatsen. Så 5775C ger i praktiken ingen fördel i genomsnittlig FPS.

Detta kanske ändras i framtiden och jag inbillar mig att 5775C förbättrar längsta FPS (har fortfarande inte sett något direkt test på detta men de resultat som finns antyder detta), tror tillräckligt mycket på detta för att själv välja 5775C över 6700K i min speldator. Men nackdelen är ju att 6700K är snabbare än 5775C på i princip allt annat, vilket vad hela diskussionen handlade som du länkar till, 5775C är bara ett bättre val om spelprestanda är det enda man bryr sig om (själv byggde jag ett TV-spel så det var ju fallet).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Det jag skrev där stämmer ju till 100%. För en diskussion om CPU påverkar vill man ta bort GPUn ur ekvationen, men är målet att faktiskt spela spelet, vilket min kommentar om 5775C kontra 6700K riktar sig mot, finns idag inget spel där CPU är flaskhals ens med 980ti och t.ex. 6700K med inställningar som ändå når > 60 FPS. Är ju knappt så att en i3 6100 är flaskhals i det läget, även om det finns spel som visar motsatsen. Så 5775C ger i praktiken ingen fördel i genomsnittlig FPS.

Skrivet av Yoshman:

Jag skrev

"Crazy setting är ju inte så intressant ur ett CPU-perspektiv då det är helt GPU-begränsat."

Sedan nämner jag att man måste titta på medium för att dra några större slutsatser om CPU-påverkan, så ser inte riktigt ironin.

Så... om nu denna i3a är bra nog för allmänt bruk, och bra nog i spel där målet är att just spela spelet, varför måste du köpa något annat då? Om du nu inte har flaskhals i nivån där du spelar spelet, då är allt annat över bortkastade pengar. Är det inte bättre då att satsa på tex bättre GPU eller tex SSD istället, som faktiskt kan göra skillnad i fps och upplevd prestanda?

Något många personer glömmer bort är folks begränsade budget. Det är ett val mellan kraftig CPU, eller kraftig GPU eller SSD. Långt från alla kan ha alla 3...

Skrivet av Yoshman:

Detta kanske ändras i framtiden och jag inbillar mig att 5775C förbättrar längsta FPS (har fortfarande inte sett något direkt test på detta men de resultat som finns antyder detta), tror tillräckligt mycket på detta för att själv välja 5775C över 6700K i min speldator. Men nackdelen är ju att 6700K är snabbare än 5775C på i princip allt annat, vilket vad hela diskussionen handlade som du länkar till, 5775C är bara ett bättre val om spelprestanda är det enda man bryr sig om (själv byggde jag ett TV-spel så det var ju fallet).

Kanske... tvivlar du på din egen kommentar nyss och tidigare i tråden igen?

Du har själv presenterat bevis på att det iaf kommer påverka, och det är rätt stor skillnad mellan en liten i3a och en i7a av hög rang. Hur ska du ha det?
Att vi inte vet hur alla spel påverkas är en sak, men även idag är sällan CPUn flaskhals i ett FPS spel @ 60fps iaf

Är roligt dock att du ändå tänkte som jag gjorde till slut med 5775c, något jag sa redan från början ang den CPUn men fick slåss rätt hårt för att visa, bla mot dig. Ska själv se om jag kan få lite cash till en och ett bra z97 kort innan de försvinner, eftersom jag vill kunna köra Windows 7/8 ett tag till, och DX11 spel kan behöva boosten

DX12 spel kan jag ju köra på gamla 2600k:n och Windows 10 istället när det blir aktuellt

Permalänk
Medlem
Skrivet av Yoshman:

Det lilla som läckt om Pascal verkar ju tyda på att Nvidia än mer kommer prioritera grafik över GPGPU.

Får ursäkta att jag hoppar in, men är det verkligen så att Nvidia kommer att prioritera grafik över GPGPU?
Nu har jag inte satt mig fullt in i deras förändring generation för generation, men nog får man intrycket att dom går rätt hårt in för GPGPU.

Nvidia har tagit fram NVLink som enbart fungerar mellan Nvidia GPU<->GPU och Nvidia GPU<->IBM Power8 (och senare) samt Nvidia GPU<->ARM (troligen endast Nvidias ARM), visst dom har lagt ner en del för att få "Mixed precision" men det är ju även tänkt för GPGPU där precisionen inte är så avgörande för slutresultatet.
Har för mig att "Mixed precision" inte har något speciellt stöd i DX11/12, tänker här på FP16. Övriga nyheter för Pascal är ju NVLink och HBM2 på upp till 32Gb, inget av detta tillför något till spel och dess grafik förutom då den högre bandbredden i HBM2, troligen så kommer den ökade bandbredden som HBM2 ger ha än större betydelse för rå beräkningskraft på serversidan

Nvidia har ju ett långtgående samarbete med IBM som dom knappast kan dra sig ur utan att ta en avgörande smäll både ekonomiskt och i prestige, bara den delen tycker jag säger att dom i nuläget inte kan prioritera grafik.

http://www.pcper.com/news/Graphics-Cards/GTC-2015-NVIDIA-Road...

Även för kommande generation Volta så satsar dom ju på beräkningskraft, nisch visserligen (som tidigare)...

http://www.anandtech.com/show/8727/nvidia-ibm-supercomputers

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Datavetare
Skrivet av Bengt-Arne:

Får ursäkta att jag hoppar in, men är det verkligen så att Nvidia kommer att prioritera grafik över GPGPU?
Nu har jag inte satt mig fullt in i deras förändring generation för generation, men nog får man intrycket att dom går rätt hårt in för GPGPU.

Nvidia har tagit fram NVLink som enbart fungerar mellan Nvidia GPU<->GPU och Nvidia GPU<->IBM Power8 (och senare) samt Nvidia GPU<->ARM (troligen endast Nvidias ARM), visst dom har lagt ner en del för att få "Mixed precision" men det är ju även tänkt för GPGPU där precisionen inte är så avgörande för slutresultatet.
Har för mig att "Mixed precision" inte har något speciellt stöd i DX11/12, tänker här på FP16. Övriga nyheter för Pascal är ju NVLink och HBM2 på upp till 32Gb, inget av detta tillför något till spel och dess grafik förutom då den högre bandbredden i HBM2, troligen så kommer den ökade bandbredden som HBM2 ger ha än större betydelse för rå beräkningskraft på serversidan

Nvidia har ju ett långtgående samarbete med IBM som dom knappast kan dra sig ur utan att ta en avgörande smäll både ekonomiskt och i prestige, bara den delen tycker jag säger att dom i nuläget inte kan prioritera grafik.

http://www.pcper.com/news/Graphics-Cards/GTC-2015-NVIDIA-Road...

Även för kommande generation Volta så satsar dom ju på beräkningskraft, nisch visserligen (som tidigare)...

http://www.anandtech.com/show/8727/nvidia-ibm-supercomputers

Allt är ju bara rykten i detta läge då Nvidia sagt väldigt lite konkret så här långt.

Precis som du skriver var NVLink var initialt tänkt för HPC ihop med POWER8, gissar att det fortfarande är fallet (fast undrar hur det går för OpenPOWER, hört att Google droppar detta för att satsa på ARMv8 som alternativ till x86), på senare tid har NVLink oftare nämnts ihop med någon ARMv8 design vilket inte känns så "HPC". D.v.s. väldigt oklart vad man siktar på med NVLink, är HPC spåret kvar lär det finnas någon form av GPU med fokus på GPGPU lite mer oklart exakt vad man ska ha NVLink till ihop med ARMv8 (machine learning verkar i.o.f.s. "hett", vet för lite om det för att säga om NVLink tillför något där).

Vad jag sett rykten om är att man eventuellt helt ska droppa 64-bitars flyttalsstöd i konsumentversionerna, tycker det låter lite osannolikt att man helt skippar det (även om det i praktiken är meningslöst för spel) och mer rimligt är då att man eventuellt gör än större diff mellan 32-bitars och 64-bitars prestanda.

Får intrycket att mixed precession tillägget i Pascal bl.a. kan användas till att dynamiskt välja 16/24 bitars beräkningar i lägen där man ändå inte kommer se någon skillnad. Det ökar ju teoretisk kapacitet och kan vara användbart för spel, knappast något man vill använda i GPGPU då resultatet eventuellt inte är helt reproducerbart.

Med tanke på hur framgångsrik man varit med Maxwell känns det konstigt om man inte gör "more of same", d.v.s. 100% fokus på saker som gör nytta i spel även om det försämrar GPGPU. Lite därför jag kan tro att det ligger något i ryktena.

Angående rykten så finns det sådana som säger att 950/960 nivån kommer fortsätta vara Maxwell, men att det handlar om 16 nmFF+ Maxwell så ersättarna för 950/960 i stort sätt blir 970/980. Ingen aning hur sannolikt detta rykte är, men inte helt orimligt då FinFET borde kunna ge ungefär den ökning i energieffektivitet så att 16 nmFF++ 970/980 hamnar på 28 nm 950/960 nivå i absolut effekt.

Kan i.o.f.s vara så att Nvida släpper HPC men ändå satsar på GPGPU i form av just machine learning, senaste generationen Tesla (Nvidias beräkningskort) har ju faktiskt sämre 64-bitars prestanda än tidigare och bara marginellt bättre 32-bitars. Man lär knappast ha något att sätta emot Xeon Phi (Knights Landing som borde komma när som helst), redan första generationen Xeon Phi tog rätt snabbt ungefär halva HPC marknaden från Nvidia.

Men som sagt, allt är rykten och spekulation. Vad som inte är spekulation är att GPGPU fortfarande knappt används utanför HPC samt att många av de områden man tidigare pekade ut som vettiga för GPGPU på konsumentmarknaden allt mer täcks in av fixed-function kretsar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Allt är ju bara rykten i detta läge då Nvidia sagt väldigt lite konkret så här långt.

Precis som du skriver var NVLink var initialt tänkt för HPC ihop med POWER8, gissar att det fortfarande är fallet (fast undrar hur det går för OpenPOWER, hört att Google droppar detta för att satsa på ARMv8 som alternativ till x86), på senare tid har NVLink oftare nämnts ihop med någon ARMv8 design vilket inte känns så "HPC". D.v.s. väldigt oklart vad man siktar på med NVLink, är HPC spåret kvar lär det finnas någon form av GPU med fokus på GPGPU lite mer oklart exakt vad man ska ha NVLink till ihop med ARMv8 (machine learning verkar i.o.f.s. "hett", vet för lite om det för att säga om NVLink tillför något där).

IBM kommer oavsett att gå vidare med Power8/9 med NVLink, så även om Google väljer ARM så har IBM kunder...

Skrivet av Yoshman:

Vad jag sett rykten om är att man eventuellt helt ska droppa 64-bitars flyttalsstöd i konsumentversionerna, tycker det låter lite osannolikt att man helt skippar det (även om det i praktiken är meningslöst för spel) och mer rimligt är då att man eventuellt gör än större diff mellan 32-bitars och 64-bitars prestanda.

Det är ju ändå samma kretsar för både konsument och server, traditionellt så har det ju ställt med hårdvaru-mjukvaruswitchar. "Mixed precision" är ju i stort (förenklat) samma sak förutom att det är möjligt att göra det under körning.
Så att dom skulle skippa 64 bitars stödet och då lämna den professionella sidan är rätt osannolikt, däremot stänga av det för konsument. Något som ju redan görs.

Skrivet av Yoshman:

Får intrycket att mixed precession tillägget i Pascal bl.a. kan användas till att dynamiskt välja 16/24 bitars beräkningar i lägen där man ändå inte kommer se någon skillnad. Det ökar ju teoretisk kapacitet och kan vara användbart för spel, knappast något man vill använda i GPGPU då resultatet eventuellt inte är helt reproducerbart.

"Mixed precision" har ingen stöd i DirectX, men tycker nog att det borde bli stöd då det kan öka prestandan. Precis som du skriver
Det är endast den professionella sidan som kan ha nytta av "Mixed precision" idag, men kan nog inte riktigt förstå vad du menar med " inte är helt reproducerbart.". Att det sker och blir avrundningsfel händer i allt från FP16 till FP64, ja felen blir större i FP16. Men nog är dom reproducerbara, för om det inte skulle vara reproducerbart så finns där en bugg i antingen kretsen eller mjukvaran.

Skrivet av Yoshman:

Med tanke på hur framgångsrik man varit med Maxwell känns det konstigt om man inte gör "more of same", d.v.s. 100% fokus på saker som gör nytta i spel även om det försämrar GPGPU. Lite därför jag kan tro att det ligger något i ryktena.

Det kan dom ju förbättra i andra delar av designen utan att för den delen påverka flyttals prestandan, visst det kan ta mer silikon och påverka från det hållet.

Skrivet av Yoshman:

Angående rykten så finns det sådana som säger att 950/960 nivån kommer fortsätta vara Maxwell, men att det handlar om 16 nmFF+ Maxwell så ersättarna för 950/960 i stort sätt blir 970/980. Ingen aning hur sannolikt detta rykte är, men inte helt orimligt då FinFET borde kunna ge ungefär den ökning i energieffektivitet så att 16 nmFF++ 970/980 hamnar på 28 nm 950/960 nivå i absolut effekt.

Lite Tick/Tock då... Inget som jag tidigare sett med GPU, men helt klart ett sätt att i så fall få ut "nya" kretsar med gammal design, bättre än endast omdöpta

Skrivet av Yoshman:

Kan i.o.f.s vara så att Nvida släpper HPC men ändå satsar på GPGPU i form av just machine learning, senaste generationen Tesla (Nvidias beräkningskort) har ju faktiskt sämre 64-bitars prestanda än tidigare och bara marginellt bättre 32-bitars. Man lär knappast ha något att sätta emot Xeon Phi (Knights Landing som borde komma när som helst), redan första generationen Xeon Phi tog rätt snabbt ungefär halva HPC marknaden från Nvidia.

Det kan nog stämma, och är ju som jag sett dig skriva tidigare att GPGPU inte fått något större genomslag.
Är nog mycket beroende på att där är en tid till acceptans/kunskap ihop med lämpliga verktyg för att kunna använda den massiva parallella beräkningskraften effektivt, något som även borde gälla för Knights landing.
Kanske i ännu större grad på Knights landing då där är 72 kärnor med 288 trådar där enkla instruktioner kan få vänta på att en komplex instruktion blir klar. Obs, förutsätter att det är som på övrig flertrådig x86 arkitektur.
En effekt som man inte får med GPGPU, förutom då på AMD's VLIW5..

Oavsett så är det intressant läsning att Atom fått ett derivat som hanterar 4 trådar per kärna

Skrivet av Yoshman:

Men som sagt, allt är rykten och spekulation. Vad som inte är spekulation är att GPGPU fortfarande knappt används utanför HPC samt att många av de områden man tidigare pekade ut som vettiga för GPGPU på konsumentmarknaden allt mer täcks in av fixed-function kretsar.

Troligen (som tidigare) att det inte funnits lätthanterliga verktyg för att dra nytta av GPGPU, en annan orsak har ju varit minnesmodellen som krånglat till det, något som AMD och även Nvidia (i viss grad) försökt att adressera med HSA.

Sen kan man ju nästan även fråga, vad finns där idag på konsumentsidan som skulle ha nytta av GPGPU? Mer än i så fall "Folding" och liknande där man välvilligt lånar ut beräkningskraften till olika professionella projekt, vilket ju är ett special fall och inget som användaren normalt har nytta av.

"Fixed function" är som jag ser det slöseri av silikon, det är ju endast för speciella fall som då hanteras mycket snabbt.
I övrigt så är den silikonytan endast ett bihang som följer med...
Däremot så ser jag helt klart fördelen med "Fixed function" i specifika periferier (i/o) som möss, fingeravtrycksläsare m.m.

Man kan ju undra hur något ska kunna komma till konsumentsidan när inte ens professionella applikationer än idag klarar av att dra fördel av/hantera mer än en tråd.
Arbetar själv med konstruktion och kör med CAD/CAM, där ingen som jag vet om än idag drar nytta av mer än "en" tråd.

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Datavetare

@Bengt-Arne: inser att jag inte är helt på det klara med vad som faktiskt menas med "mixed precession", läser man lite om det verkar det ju handla om att kunna köra beräkningar där resultatet och vissa delar har högre precision än vissa inre delar som genererar mycket beräkningar. Men med den definitionen borde ju redan dagens GPUer ha detta då det rent tekniskt borde vara möjligt att delvis använda 32-bitars precision ihop med 64-bitars resultat.

Sedan verkar ju både Vulkan och DX12 stödja FP16 och både Maxwell och GCN1.2 stödjer ju FP16 även om kapaciteten är densamma som för FP32. Om Pascal då får "native" stöd för FP16 är det ju full möjligt för spel att använda FP16 i de mest prestandakritiska delarna av shaders (om det är möjligt givet precisionen) för att öka prestanda. En flaskhals i mer komplicerade shaders är antalet register som finns tillgängliga i GPUn, kan man gå från FP32 till FP16 så fördubblas ju antal register (förutsatt att man har fullt HW stöd för FP16).

Är just FP16 som ingick i den "CEO matematik" som Nvidias VD använde sig av när han sa att Pascal kan bli upp till x10 snabbare än Maxwell. Många operationer blir ungefär dubbelt så snabb med FP16 jämfört med FP32, men vissa ökar mer än så som t.ex. multiplikation (ca x4) och division (inte helt säker men tror det är >x4).

Kan ha missförstått en av de slides Nvidia har om "mixed precession", men den ger sken av att GPUn (ihop med någon heuristik) dynamiskt kan minska precisionen i lägen där det bedöms vara OK. Kan som sagt helt ha missförstått detta, men om det är något som sker dynamiskt och med någon form av heuristik så blir ju resultatet inte självklart stabilt. Det känns som det i teorin skulle kunna fungera för grafik för där finns egentligen inget exakt korrekt svar, enda som spelar roll är att man kommer tillräckligt nära "rätt" resultat för att man inte ska uppfatta felen i den renderade scenen.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer