Nvidia Tegra 4 utrustas med åtta kärnor, DX11-grafik

Permalänk
Medlem
Skrivet av Hardware guy:

Det är tur att det finns andra som ser behovet så att inte en enda persons åsikt hindrar utvecklingen.

Högre prestanda resulterar vanligtvis i lägre strömförbrukning då snabbare utfört arbete gör att processorn tillbringar mer tid i djupaste strömsparläge.

Nämn gärna ett par scenarion där en mobil enhet skulle ha användning för åtta kärnor.

Visa signatur

Kom-pa-TI-bilitet

Permalänk
Skrivet av Valiumballong:

Spel är dåliga på att utnyttja flera kärnor, det ligger i kodens natur.

Ursäkta, men är inte spel så kallade embarrassingly parallel programs eller vad det nu var? Alltså att de är lätt att tråda dem?

Visa signatur

Gammalt nick: Darkst@r
Intel Core i7 860 @ 3,6 GHz/Noctua NH-D14|Asus GTX 970 Strix|2x2 GB Corsair Dominator DDR3 1600 CL8|Asus P7P55D Deluxe|Intel X-25M G2 80GB|Samsung 850 Pro 256 GB|Samsung Spinpoint F3 1TB|Windows 7 Home Premium 64-bit|Nanoxia Deep Silence 1|Corsair VX550|

Permalänk
Skrivet av Teknocide:

Nämn gärna ett par scenarion där en mobil enhet skulle ha användning för åtta kärnor.

HD-material, decodning t ex

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Skrivet av pecill:

Som sagt, det är inte svårt att få en quad-core att svettas i dagens läge.

Svårt? Nej, självfallet inte. Däremot så är det inget man gör med den typ av program som standardanvändaren använder.

Skickades från m.sweclockers.com

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem
Skrivet av DataNusse:

HD-material, decodning t ex

Det sköts av grafikdelen eller bör göra iaf.

Skickades från m.sweclockers.com

Visa signatur

Kom-pa-TI-bilitet

Permalänk
Medlem

Valiumballong har en god poäng i den här tråden. Jag vill dra en parallell med dagens forskning, där det gäller användbar forskning, teknik-forskning (t ex medicinsk forskning och forskning för att förenkla samt förbättra människans tillvaro) vs "sannings"-forskning, med målet att förstå hur världen hänger samman (allt med atomfysik och dylikt att göra - jag är ej insatt). Det ena slaget av forskningen förbättrar vår tillvaro direkt, den andra mer indirekt.

De faktiska förbättringar en åttakärning processor i en mobil enhet gör idag är inte stora, kraften är svåranvänd och kommer inte att användas på en lång tid. Satsar utvecklaren - Nvidia i det här fallet - på t ex lägre strömförbrukning och bättre prestanda per kärna så är förändringarna mer påtagliga - bättre batteritid och snabbare program. Därmed inte sagt att en åttakärnig processor i en mobil enhet är något dåligt, det är sådana saker som trycker både vår mjukvara och hårdvara framåt.

Men ser man till nutiden, måste jag hålla med Valiumballong fullt ut, kraften kommer inte att kunna användas.

Visa signatur

ASUS Strix B550-F | AMD Ryzen 5 5600X | Corsair 32GB 3200MHz RAM | ASUS Dual RTX 4070 | Corsair MP600 2TB | Corsair HX650W PSU | Fractal Design Define S

Permalänk
Medlem

8 kärnor , när man vill multitaska mycket lulllull som körs samtidigt.
Användbart eller ej, så kanske det driver på utvecklingen för multithreaded program lite granna. (så att framtidens pruttappar kan fisa på alla kärnor samtidigt,, eh, jag menar viktiga program kan utveckla medicin eller nått.)

Däremot så hakade jag upp mig på en grej...
"DirectX11+"

11+ ?

Permalänk
Datavetare
Skrivet av Darkst@r:

Ursäkta, men är inte spel så kallade embarrassingly parallel programs eller vad det nu var? Alltså att de är lätt att tråda dem?

Att rendrerar grafik är "embarrassingly parallel" då varje pixel på skärmen kan beräknas utan att det påverkar beräkningen för något annat pixel. Men detta gör ju på en GPU idag och att detta problem är "embarrassningly parallel" är anledning till att moderna GeForce/Radeon har så många "stream processorer".

Utföra cyklisk perturbation (t.ex. träd/flaggor som vajar i "vinden") är också något som kan utföras relativt oberoende av varandra, men visst beroende finns. Om toppen på en gren rör sig uppåt så måste ju resten av grenen fortfarande sitta ihop. Så olika objekt kan beräknas oberoende av varandra, men varje objekt (gren, flagga, etc) är beroende.

Nästa steg är AI där varje objekt kan beräknas var för sig under ett kort tag, men då och då måste man ta hänsyn till en större del av värden då det kan påverkar besluten AI:n ska ta. I extremfallet ska denna synkronisering göras många gånger per sekund.

Andra saker är extremt beroende, t.ex. kollisionsdetektering.

Till det kommer att spelmotorer har till relativt nyligen varit helt enkeltrådade och en modern spelmotor är en väldigt stort och komplex programvara så det tar tid att göra dessa multi-CPU vänliga.

Tycker 8 kärnor låter mycket ens för en desktopdator inom de närmaste åren och rätt meningslöst på en bärbar enhet. 8 kärnor som jobbar effektivt kommer betyda närmare 8 gånger så högt tryck på RAM-bussen. RAM-bussen på dagens mobila enheter är MYCKET långsammare än dagens PC och trots det blir RAM-bussen ofta en stor flaskhals redan vid 4 kärnor. Men visst går det att effektivt använda 8 CPU-kärnor bara man har ett problem som till största del kan hållas sig i CPU-cache.

Tittar man runt på lite spel-utvecklar siter, så verkar många sucka lite över att koden ofta skalar någonstans mellan sqrt(N) till log(N) där N är antalet CPU kärnor, inte alls linjärt alltså. Amdahl's lag ger också lite insikt i hur svårt det är att dra nytta av så många som 8 kärnor i ett spel. Låt oss jämföra ett program som är 50%, 75%, 90% och 95% parallel och se hur mycket snabbare det MAXIMALT kan bli på 2, 4 och 8 kärnor S(N)=prestandaökning med N kärnor

50%: S(2)=1.30, S(4)=1.60, S(8)=1.78
75%: S(2)=1.60, S(4)=2.29, S(8)=2.91
90%: S(2)=1.82, S(4)=3.08, S(8)=4.71
95%: S(2)=1.90, S(4)=3.48, S(8)=5.93

Tvivlar på att en spelmotor ens är nära att vara 90% parallel. Amdahl förutsätter också att den parallela delen är oändligt parallel, vilket kanske inte är sant. Man ser här att 2 kärnor är hyfsat enkelt att utnyttja, men redan 4 så blir effektiviteten rätt låg om man programmet inte är fullt parallelserbart till mer än 90%.

Så håller med de "teknikfientliga" kommentarerna här. Känns som det vore bättre att satsa på lägre strömförbrukningen alt. lägga transistorbudgeten på mer cache eller liknande för att få upp prestanda per tråd.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd

Så som jag ser det så är det just detta som kommer tvinga fram bättre batteriteknik.

Det är skumt att folk härinne verkar ogilla att teknik utvecklas, det är ju detta som kommer leda till saker som vi inte ens kan tänka oss än tex:

-Smartphones som kommunicerar med nanobotar i vår kropp och konstant kontrollerar vår hälsa och kanske tom hjälpa till att hålla oss friska, fria från cancer osv. Antagligen kommer detta dröja väldigt länge än men om tekniken inte går framåt så kommer detta aldrig hända.

-Smartphones som blir så kraftfulla att man inte behöver en stationär/bärbar dator utan bara en Skärm/Tv dit man tar med den tex jobbet hemmet vänner och allt kommer givetvis vara trådlöst bildsignaler laddning osv, spelkonsoler kommer bli överflödiga med tiden antagligen det skulle faktiskt inte förvåna mig om Playstation 4/5 Xbox 3/4 blir de sista stationära konsolerna vi någonsin kommer se.

-AMD tex verkar inte ha mycket att sätta emot Intel de närmaste 12 månaderna som jag ser det om inte Bulldozer blir mycket bra och om den blir det i sep/okt så kan jag slå vad om det kommer en mycket snabb lansering av Sandy Bridge-E därefter och antagligen kommer Ivy Bridge redan i jan/feb som det var planerat tidigare.
Så iom Windows 8´s ARM-stöd så kanske Intel får lite eld i baken och slutar upp med att senarelägga releaser på färdiga produker.

Sluta klaga på teknisk utveckling det är det vi vill ha som tekniskt intresserade, andra tillverkare kommer säkert gå den andra vägen dvs bättre batteritid osv.

Visa signatur

Asus P8Z77-V Deluxe || Intel Core-i7-3770K || Palit GTX 680 Jetstream Edition || 16 GB Corsair Venegance 1600Mhz || 2TB Seagate Barracuda XT || OCZ Vertex 2 120GB ||

Permalänk
Skrivet av Yoshman:

Att rendrerar grafik är "embarrassingly parallel" då varje pixel på skärmen kan beräknas utan att det påverkar beräkningen för något annat pixel. Men detta gör ju på en GPU idag och att detta problem är "embarrassningly parallel" är anledning till att moderna GeForce/Radeon har så många "stream processorer".

Utföra cyklisk perturbation (t.ex. träd/flaggor som vajar i "vinden") är också något som kan utföras relativt oberoende av varandra, men visst beroende finns. Om toppen på en gren rör sig uppåt så måste ju resten av grenen fortfarande sitta ihop. Så olika objekt kan beräknas oberoende av varandra, men varje objekt (gren, flagga, etc) är beroende.

Nästa steg är AI där varje objekt kan beräknas var för sig under ett kort tag, men då och då måste man ta hänsyn till en större del av värden då det kan påverkar besluten AI:n ska ta. I extremfallet ska denna synkronisering göras många gånger per sekund.

Andra saker är extremt beroende, t.ex. kollisionsdetektering.

Till det kommer att spelmotorer har till relativt nyligen varit helt enkeltrådade och en modern spelmotor är en väldigt stort och komplex programvara så det tar tid att göra dessa multi-CPU vänliga.

Tycker 8 kärnor låter mycket ens för en desktopdator inom de närmaste åren och rätt meningslöst på en bärbar enhet. 8 kärnor som jobbar effektivt kommer betyda närmare 8 gånger så högt tryck på RAM-bussen. RAM-bussen på dagens mobila enheter är MYCKET långsammare än dagens PC och trots det blir RAM-bussen ofta en stor flaskhals redan vid 4 kärnor. Men visst går det att effektivt använda 8 CPU-kärnor bara man har ett problem som till största del kan hållas sig i CPU-cache.

Tittar man runt på lite spel-utvecklar siter, så verkar många sucka lite över att koden ofta skalar någonstans mellan sqrt(N) till log(N) där N är antalet CPU kärnor, inte alls linjärt alltså. Amdahl's lag ger också lite insikt i hur svårt det är att dra nytta av så många som 8 kärnor i ett spel. Låt oss jämföra ett program som är 50%, 75%, 90% och 95% parallel och se hur mycket snabbare det MAXIMALT kan bli på 2, 4 och 8 kärnor S(N)=prestandaökning med N kärnor

50%: S(2)=1.30, S(4)=1.60, S(8)=1.78
75%: S(2)=1.60, S(4)=2.29, S(8)=2.91
90%: S(2)=1.82, S(4)=3.08, S(8)=4.71
95%: S(2)=1.90, S(4)=3.48, S(8)=5.93

Tvivlar på att en spelmotor ens är nära att vara 90% parallel. Amdahl förutsätter också att den parallela delen är oändligt parallel, vilket kanske inte är sant. Man ser här att 2 kärnor är hyfsat enkelt att utnyttja, men redan 4 så blir effektiviteten rätt låg om man programmet inte är fullt parallelserbart till mer än 90%.

Så håller med de "teknikfientliga" kommentarerna här. Känns som det vore bättre att satsa på lägre strömförbrukningen alt. lägga transistorbudgeten på mer cache eller liknande för att få upp prestanda per tråd.

Coolt! Studerar du datorvetenskap?

Visa signatur

Gammalt nick: Darkst@r
Intel Core i7 860 @ 3,6 GHz/Noctua NH-D14|Asus GTX 970 Strix|2x2 GB Corsair Dominator DDR3 1600 CL8|Asus P7P55D Deluxe|Intel X-25M G2 80GB|Samsung 850 Pro 256 GB|Samsung Spinpoint F3 1TB|Windows 7 Home Premium 64-bit|Nanoxia Deep Silence 1|Corsair VX550|

Permalänk
Medlem

Tja, det kommer väl att sluta med att "gamer" datorn dör en stilla död på några år...
Konsolerna står för huvudmarknaden och för vardagsbehov duger en laptop eller surfplatta, finns inget egentligt skäl (ännu mindre än idag) att satsa på liknande lösningar annat än för företag, men den som lever får väl se...

Permalänk
Datavetare
Skrivet av Darkst@r:

Coolt! Studerar du datorvetenskap?

Inte direkt, lite för gammal för det, var ung under Spectrum 48/C=64/Atari ST/Amiga tiden (har haft alla)

Men har studerat bl.a. datorvetenskap och jobbar med att optimera programvara för multicore system, så har hyfsat koll på hur pass svårt det är att effektivt utnyttja många CPU-kärnor för att accelerera ett och samma problem (vilket är den typ av problem jag arbetar med). På servers är det mycket enklare att utnyttja många CPU-kärnor då olika förfrågningar är relativt oberoende och kan därför effektivt hanteras på olika CPU kärnor.

Därför gillar jag att Intel fortfarande jobbar väldigt hårt på att maximera prestanda per tråd. De säger själv att de först och främst tillverkar ett desktop-chip. Att gå väldigt brett är interessant, men idag är en sådan design bara vettig på servers. Desktop-programvara är notoriskt dåligt på att utnyttja flera CPU kärnor och programvara på mobilia enheter är om möjligt ännu sämre.

Men alla vet att det inte går att skala upp klockfrekvensen speciellt mycket mer än vad vi har idag, så alla kommer vara tvungen att skala antalet kärnor. Det jag vänder mig mot i nVidia fallet är att 8 kärnor känns rätt meningslöst om tidsplanen för detta chip är att finns på marknaden om 2-3 år. Finns inte en chans att programvaran på mobiler hinner förändras så fort.

Ska man säga något positivt så är det väl kul att någon går i bräschen för mobila chip! Men det finns ju andra symmetriska chip redan idag med 32 CPU-kärnor (från t.ex. Cavium Networks) och ända upp till 100 CPU-kärnor om man kan leva med ett asymmetriskt chip (Tilera) eller 40 kärnor/80-trådar (4 st Intel Westmere EX, 10 kärnor per CPU). Så de som forskar och utvecklar programvara för parallela system står och faller inte precis med ett 8-kärnors chip från nVidia...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Maikel:

Så som jag ser det så är det just detta som kommer tvinga fram bättre batteriteknik.

Det är skumt att folk härinne verkar ogilla att teknik utvecklas, det är ju detta som kommer leda till saker som vi inte ens kan tänka oss än tex:

-Smartphones som kommunicerar med nanobotar i vår kropp och konstant kontrollerar vår hälsa och kanske tom hjälpa till att hålla oss friska, fria från cancer osv. Antagligen kommer detta dröja väldigt länge än men om tekniken inte går framåt så kommer detta aldrig hända.

-Smartphones som blir så kraftfulla att man inte behöver en stationär/bärbar dator utan bara en Skärm/Tv dit man tar med den tex jobbet hemmet vänner och allt kommer givetvis vara trådlöst bildsignaler laddning osv, spelkonsoler kommer bli överflödiga med tiden antagligen det skulle faktiskt inte förvåna mig om Playstation 4/5 Xbox 3/4 blir de sista stationära konsolerna vi någonsin kommer se.

-AMD tex verkar inte ha mycket att sätta emot Intel de närmaste 12 månaderna som jag ser det om inte Bulldozer blir mycket bra och om den blir det i sep/okt så kan jag slå vad om det kommer en mycket snabb lansering av Sandy Bridge-E därefter och antagligen kommer Ivy Bridge redan i jan/feb som det var planerat tidigare.
Så iom Windows 8´s ARM-stöd så kanske Intel får lite eld i baken och slutar upp med att senarelägga releaser på färdiga produker.

Sluta klaga på teknisk utveckling det är det vi vill ha som tekniskt intresserade, andra tillverkare kommer säkert gå den andra vägen dvs bättre batteritid osv.

Felet är att fokus ligger på fel område. Fler kärnor kommer med största sannolikhet inte att öka prestandan hos mobila enheter inom någon snar framtid. Fokus borde ligga på batteritid och på att förbättra kärnorna, inte pressa in fler som inte kommer att ge någon reell förbättring av den mobila upplevelsen.

Skickades från m.sweclockers.com

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem
Skrivet av Valiumballong:

Felet är att fokus ligger på fel område. Fler kärnor kommer med största sannolikhet inte att öka prestandan hos mobila enheter inom någon snar framtid. Fokus borde ligga på batteritid och på att förbättra kärnorna, inte pressa in fler som inte kommer att ge någon reell förbättring av den mobila upplevelsen.

Skickades från m.sweclockers.com

Precis -- håller med. Sedan kanske Android kunde få GPU-acceleration också ...

Visa signatur

Tommie Hansen
---
byme

Permalänk
Medlem
Skrivet av Yoshman:

Ska man säga något positivt så är det väl kul att någon går i bräschen för mobila chip! Men det finns ju andra symmetriska chip redan idag med 32 CPU-kärnor (från t.ex. Cavium Networks) och ända upp till 100 CPU-kärnor om man kan leva med ett asymmetriskt chip (Tilera) eller 40 kärnor/80-trådar (4 st Intel Westmere EX, 10 kärnor per CPU). Så de som forskar och utvecklar programvara för parallela system står och faller inte precis med ett 8-kärnors chip från nVidia...

Fast skall vi vara petiga så är det ju inte nVida som "går i bräschen" för mobila chip. Som artikeln nämner är det ju, precis som i Tegra 2, ARM som står för CPU arkitekturen. Högst sannolikt kommer alla de andra stora tillverkarna som Apple, Samsung m.fl använda samma CPU i sin SoC för mobila enheter precis som många idag använder Cortex-A9 som sitter i Tegra 2.

I dagsläget är nVidia snarare på efterkälken då andra tillverkare har mycket vassare GPU:er i sin SoC. Vad nVidia är väldigt bra på dock är PR, var mycket snack innan Tegra 2 dök upp också. För nVidia skull får vi hoppas att de får sina chip klara enligt tidplanen denna gång annars tror jag vi får se historien upprepa sig.

Permalänk
Datavetare
Skrivet av S_Z:

Fast skall vi vara petiga så är det ju inte nVida som "går i bräschen" för mobila chip. Som artikeln nämner är det ju, precis som i Tegra 2, ARM som står för CPU arkitekturen. Högst sannolikt kommer alla de andra stora tillverkarna som Apple, Samsung m.fl använda samma CPU i sin SoC för mobila enheter precis som många idag använder Cortex-A9 som sitter i Tegra 2.

I dagsläget är nVidia snarare på efterkälken då andra tillverkare har mycket vassare GPU:er i sin SoC. Vad nVidia är väldigt bra på dock är PR, var mycket snack innan Tegra 2 dök upp också. För nVidia skull får vi hoppas att de får sina chip klara enligt tidplanen denna gång annars tror jag vi får se historien upprepa sig.

Naturligtvis är det ARM som står för design av CPU i detta fall, men det är ändå nVidia som väljer att göra en faktiskt implementation av en 8-kärnors ARM. ARM själva göra ju inga CPU-chip överhuvudtaget, så om ingen väljer att fysiskt skapa en viss design så kvittar det om ARM tagit fram designen för den.

ARM kan säker redan idag designa ett chip med >8 ARM kärnor. Men frågan är hur mycket ström det skulle dra och vad det skulle kosta att tillverka...

En liten trist sak är att de som tillverkar ARM CPUer har också möjligheten att göra en del val. nVidia gjorde, i min menig, ett ganska dåligt aktivt val när de valde att inte ta med NEON stöd i sitt Tegra2 chip (NEON är ungefär samma sak som SSE). Resultatet är nu att Android-utvecklare får problem om de vill optimera sina program med NEON kod, då Tegra2 saknar detta. Qualcomm har gjorde tvärs om, de stannade kvar då föregående ARM arkitektur (Cortex A8, Tegra2 är Cortex A9 baserad) men gjorde FPU och NEON delen rejält mycket starkare + lade till stöd för dual core. Detta SoC sitter bl.a. i HTC Sensension. Samsung har NEON stöd men bygger på Cortex A9 (detta SoC sitter i SGII).

Kod som kan optimeras för NEON kan mycket väl gå 2-4 gånger snabbare per tråd, så begriper inte hur nVidia tänkte här då spel är en sådan sak som ofta kan utnyttja NEON.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Valiumballong:

Felet är att fokus ligger på fel område. Fler kärnor kommer med största sannolikhet inte att öka prestandan hos mobila enheter inom någon snar framtid. Fokus borde ligga på batteritid och på att förbättra kärnorna, inte pressa in fler som inte kommer att ge någon reell förbättring av den mobila upplevelsen.

Skickades från m.sweclockers.com

Amen to that. Men det kommer inte hända, vi minns alla mäggapickselrejset på kameror. Huvudsaken var ett högt antal pixel, skitsamma se'n om ljuskänsligheten var modell supernova och optiken fått en gammal ölflaskebotten att framstå som årets TIPA-award. Även jag ser hellre singlecore i typ 3GHz med otroligt låg TDP, och det lär vi nog få se från andra tillverkare.

Åtminstone för Android kommer de här massivt parallella systemen vara rätt meningslösa under lång tid framåt. (Nu vill jag inte kasta skit på våra Javaprogrammerande vänner inom Androidsfären men inte f-n har kommer de i kombination med Dalvik bli en milstolpe i paravärlden. Vi får väl se om W8-plattorna kan göra något åt saken, 'emska tanke Det behövs fler Erlangprogrammerare i framtiden )

Visa signatur

[Atari 400|600XL|800XL|XEGS|ST|STe|Mega ST|Mega STe|Portfolio][Commodore VIC20|64|116|128|+/4|8032|Amiga 500|Amiga 1200][BBC Micro][Sinclair QL|ZX81][TI 99/4A][Sord M5][Spectravideo 328|728][Cambridge Z88][ABC80][MFP-II][IBM RS/6000 59H][Apple LCII][Zaurus SL5000D][PDP 11/34][...massor av bråte...]

Permalänk
Medlem
Skrivet av Grumbledock:

Tja, det kommer väl att sluta med att "gamer" datorn dör en stilla död på några år...
Konsolerna står för huvudmarknaden och för vardagsbehov duger en laptop eller surfplatta, finns inget egentligt skäl (ännu mindre än idag) att satsa på liknande lösningar annat än för företag, men den som lever får väl se...

Tycker den redan nu är död, finns inget spel idag som inte går att spela med bra underhållning på en 7kr laptop. Då menar jag inte på 1366x768. Nästa dator blir en laptop för mig, finns ingen mening längre med en fet speldator.

Permalänk
Medlem
Skrivet av Vexo:

Tycker den redan nu är död, finns inget spel idag som inte går att spela med bra underhållning på en 7kr laptop. Då menar jag inte på 1366x768. Nästa dator blir en laptop för mig, finns ingen mening längre med en fet speldator.

DiRT 3 på Eyefinity-3(6). Min nästa dator blir en fet speldator, om nu inte laptopparna klarar 6 skärmar i fullt ös (5760x2160)...

Att spela på en enda skärm är så 1999. Är ju som att leka med en kotte och fyra tändstickor i regnet.

Visa signatur

[Atari 400|600XL|800XL|XEGS|ST|STe|Mega ST|Mega STe|Portfolio][Commodore VIC20|64|116|128|+/4|8032|Amiga 500|Amiga 1200][BBC Micro][Sinclair QL|ZX81][TI 99/4A][Sord M5][Spectravideo 328|728][Cambridge Z88][ABC80][MFP-II][IBM RS/6000 59H][Apple LCII][Zaurus SL5000D][PDP 11/34][...massor av bråte...]

Permalänk

Som någon nämnde, varför fokuserar alla på att ett program ska vara optimerat för flera kärnor - vem har en mobiltelefon med dual core prolle idag som inte kör mer än ett program samtidigt? Mail, webbläsare (med flera flikar), kalender, facebook-app, twitter-app, etcetera. Därefter kör man ett spel ovanpå detta, det är ju då en 8a-kärnig prolle kan skina jämfört med en stackars dual. Eller har jag missat något?

Visa signatur

kaffesump

Permalänk
Medlem
Skrivet av kaffesump:

Som någon nämnde, varför fokuserar alla på att ett program ska vara optimerat för flera kärnor - vem har en mobiltelefon med dual core prolle idag som inte kör mer än ett program samtidigt? Mail, webbläsare (med flera flikar), kalender, facebook-app, twitter-app, etcetera. Därefter kör man ett spel ovanpå detta, det är ju då en 8a-kärnig prolle kan skina jämfört med en stackars dual. Eller har jag missat något?

Jag tror inte du har missat något men det känns ogenomtänkt (från min åsikts hörna då naturligtvis.)
Mail, webbläsare och allt det där drar ju inte heller speciellt mycket CPU-kraft när de ligger i bakgrunden, vilket de kommer göra när du kör ditt spel. En kärna på 1 GHz klarar garanterat av att hantera sådana uppgifter. Spelet i sig använder mest grafikprocessorn såvida det inte handlar om väldigt avancerade beräkningar, viss AI exempelvis.

En iPhone 4 kan köra ganska tung grafik utan problem (http://www.youtube.com/watch?v=x2ncmwgJzqw&feature=fvwrel) och den har "bara" en kärna och ett grafikchip som med dagens mobila mått mätt inte är något speciellt. Vad är det egentligen för applikationer man hoppas kunna köra med en åttakärnig processor?

För varje kärna som läggs till så blir det mer "overhead" i form av extragrejer som kärnorna behöver för att kunna fungera. Cache är en sådan sak; varje kärna behöver sin egen och det kostar kiselutrymme. Det är lite samma sak som om man haft 8 GB RAM-minne på sin telefon: det minne som inte används tar fortfarande upp resurser i form av fysiskt utrymme inuti enheten.

Om en processor har åtta kärnor varav två används så är tre fjärdedelar av processorns totala storlek bortkastad. Jag ser hellre att man lägger möda på att göra de kärnor som faktiskt används effektivare.

Visa signatur

Kom-pa-TI-bilitet

Permalänk
Medlem
Skrivet av virtual void:

Naturligtvis är det ARM som står för design av CPU i detta fall, men det är ändå nVidia som väljer att göra en faktiskt implementation av en 8-kärnors ARM. ARM själva göra ju inga CPU-chip överhuvudtaget, så om ingen väljer att fysiskt skapa en viss design så kvittar det om ARM tagit fram designen för den.

Självklart, men min poäng var att ifall nu 8-kärnors ARM processorer är det bästa praktiskt möjliga vid tidpunkten för Tegra 4 så kan man var rätt säker på att de andra tillverkarna även dem kommer ha kretar baserade på denna arkitektur då. Precis som majoriteten av tillverkarna (Apple, Samsung och nVidia) idag använder dual-core Cortex-A9 som anses vara det bästa möjliga just nu.

Då är jag mycket mer intresserad av vad nVidia kan få fram GPU-mässigt då nVidia använder sin egenutvecklade arkitektur för GPUn och där det historiskt sett har skilt mycket mellan de olika tillverkarna i val av kretsar.

Som sagt, nVidia må snacka mer än de andra tillverkarna men om de kommer ligga i framkant återstår att se. Än så länge ligger de efter de övriga...

Permalänk
Datavetare
Skrivet av kaffesump:

Som någon nämnde, varför fokuserar alla på att ett program ska vara optimerat för flera kärnor - vem har en mobiltelefon med dual core prolle idag som inte kör mer än ett program samtidigt? Mail, webbläsare (med flera flikar), kalender, facebook-app, twitter-app, etcetera. Därefter kör man ett spel ovanpå detta, det är ju då en 8a-kärnig prolle kan skina jämfört med en stackars dual. Eller har jag missat något?

Det du missat är att de program du listat kommer 99% av tiden göra absolut ingenting, möjligen med undantag för webbläsaren som knappast kommer använda mer än 1 tråd, 2 om den kör både tunga JavaScript sidor + Flash. Så om du har ett spel som i bästa fall kanske använder 2 kärnor, så använder hela systemet typ 2.1 CPU kärnor på ett vettigt sätt. Frågan är ändå varför du skulle vilja att webbläsaren aktivt kör något då ditt spel tar all fokus...

Anledningen till att så mycket fokus läggs på att optimera enskilda program så de kan använda många/all kärnor är att det inte finns något annat sätt att få enskilda program att gå fortare. Vissa hävdar att dagens CPUer redan är tillräckligt snabba, kul för dessa. Det fanns även de som tyckte en 33MHz 486 var långt mycket snabbare än de någonsin behövde... För många andra så är fortfarande CPUn den absolut största flaskhalsen och för dessa finns ingen annan väg framåt än att lura ut bra sätt att effektivt använda flera CPU-kärnor, något som är betydligt svårare än det kanske verkar.

ARM CPUer är väldigt svaga jämfört med AMD/Intel CPUer, så här är antalet program som redan idag lider av dålig prestanda klart större. ARMs stora fördel är låg strömförbrukning och lågt pris, den fördelen skulle försvinna direkt om de försökte gå samma prestanda per tråd som AMD/Intel. Så sett ur den synvinkeln så är ett 8-kärnors ARM chip riktigt vettigt. Men som påpekats flera gånger: dagens program är extremt usla på att utnyttja ens mer än en CPU kärna på ett vettigt sätt, så resultatet blir nog bara ett chip med många CPU-kärnor som gör inget mer än kostar chip-yta och (lite) ström.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Valiumballong:

Mobila enheter innefattar alla ovanstående, inte bara mobiltelefoner.

Jag förstår bara inte vitsen med enorm (relativt) beräkningskapacitet i enheter som är lättviktsklienter. Ingen gör tunga beräkningar på en ultraportabel dator idag och ingen kommer att göra tunga beräkningar på en ultraportabel dator imorgon. Det är inte ett syfte en mobil enhet ska fylla.

Tror du verkligen på dig själv när du säger så? Samma sak kunde man ju säga för tio år sedan om de gamla telefonerna, då kunde man inte drömma om att kunna se på film, spela mer krävande spel på telefonen än vad som fanns på datorn. Visst det kanske inte ser ut som om man inom en snar framtid kommer dra nytta av den i nuläget överflödiga beräkningskraften, men för att driva på utvecklingen av mjukvaran kan man öka hårdvaran och ge utvecklarna större möjligheter och friare händer. Vem vet, snart kanske du bara behöver din surfplatta, du kan koppla upp den till stationer av alla möjliga slag, VR, skärmar you name it.

Permalänk
Medlem

Kommer ni ihåg Johnny Mnemonic? Hans hjärna kunde bära 80gb data men han blev halvt lobotomerad på kuppen. Detta var en framtidsfilm från 1995. Ni som tycker att 8-kärniga prollar är onödigt har nog missat utvecklingen de senaste åren och utvecklingen kommer nog att gå från högre Hz till fler kärnor. Om jag ska vara ärlig tror jag nog att hem-pcn är död inom 5 år. Speciellt när din klocka eller smartphone är din hem-pc. Hemma har du bara en skärm och tangentbord som väntar på att husse ska komma hem. ATX är så stort och förlegat.

Permalänk
Medlem
Skrivet av Todilo:

Tror du verkligen på dig själv när du säger så? Samma sak kunde man ju säga för tio år sedan om de gamla telefonerna, då kunde man inte drömma om att kunna se på film, spela mer krävande spel på telefonen än vad som fanns på datorn. Visst det kanske inte ser ut som om man inom en snar framtid kommer dra nytta av den i nuläget överflödiga beräkningskraften, men för att driva på utvecklingen av mjukvaran kan man öka hårdvaran och ge utvecklarna större möjligheter och friare händer. Vem vet, snart kanske du bara behöver din surfplatta, du kan koppla upp den till stationer av alla möjliga slag, VR, skärmar you name it.

Återigen: prestandavinsten av att stoppa in fler kärnor är liten. Vi har sett detta på PC-fronten och nu kommer vi få se det på mobilfronten. Fokus borde ligga på att öka prestandan på de kärnor som finns och öka batteritiden.

Qualcomms roadmap:

Fortfarande 4 kärnor 2013 vilket känns som en betydligt mer vettig approach än 8 kärnor 2012. Skruva upp frekvenserna istället för att proppa in fler som inte ger någn prestandavinst.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem
Skrivet av Todilo:

Tror du verkligen på dig själv när du säger så? Samma sak kunde man ju säga för tio år sedan om de gamla telefonerna, då kunde man inte drömma om att kunna se på film, spela mer krävande spel på telefonen än vad som fanns på datorn. Visst det kanske inte ser ut som om man inom en snar framtid kommer dra nytta av den i nuläget överflödiga beräkningskraften, men för att driva på utvecklingen av mjukvaran kan man öka hårdvaran och ge utvecklarna större möjligheter och friare händer. Vem vet, snart kanske du bara behöver din surfplatta, du kan koppla upp den till stationer av alla möjliga slag, VR, skärmar you name it.

Men ni fattar ju fortfarande inte vad vi säger. Vi menar inte att man ska stoppa utvecklingen av mobila enheter, utan att man investerar resurser på fel plan när man börjar bygga större CPU:er; vi vill ju ha mindre och lättare, energisnålare, effektivare!

Jag gillar tanken på att den mobila enheten integreras mer och mer i vardagen, till exempel för betalning av varor på ICA eller bussbiljetter. Skitbra! Men det är inte mobiltelefonen som kommer att göra dessa transaktioner. Den biten sköts genom avlägsna servrar, det så-kallade "molnet", och för det behöver vi ingen beräkningskapacitet i telefonen. Möjligtvis kan den behöva kryptera kortare snuttar av information, men det är ingenting som kommer ta flera minuter i beräkning.

En Samsung Galaxy S2 klarar att spela upp 1080p och hade klarat det även om den hade varit enkelkärnig då grafikdelen stöder hårdvaruavkodning, så där behövs knappt nån CPU heller.

Återigen, tänk efter. Vad är det för beräkningsintensiva jobb ni vill köra på era mobiltelefoner? Jag vill ha verkliga exempel. Kanske har jag själv svårt att tänka utanför boxen men jag kan så här på rak arm inte komma på något mobilt användningsområde där lokal beräkning är att föredra framför en molntjänst.

Visa signatur

Kom-pa-TI-bilitet

Permalänk
Medlem
Skrivet av rullekorn82:

Kommer ni ihåg Johnny Mnemonic? Hans hjärna kunde bära 80gb data men han blev halvt lobotomerad på kuppen. Detta var en framtidsfilm från 1995. Ni som tycker att 8-kärniga prollar är onödigt har nog missat utvecklingen de senaste åren och utvecklingen kommer nog att gå från högre Hz till fler kärnor. Om jag ska vara ärlig tror jag nog att hem-pcn är död inom 5 år. Speciellt när din klocka eller smartphone är din hem-pc. Hemma har du bara en skärm och tangentbord som väntar på att husse ska komma hem. ATX är så stort och förlegat.

Nej, det är nog du som har missat utvecklingen som skett. Det finns en gräns för hur hög frekvens man kan pressa ur en mikroarkitektur innan förhållandet mellan prestanda, värmeutveckling och strömförbrukning blir så skev att det inte längre är värt det. Det är då man lägger in fler kärnor. Det betyder inte att det finns en fast gräns, en universiell sanning, vad det gäller vilken frekvens som är möjlig. Processorer utvecklas, tillverkningstekniken blir bättre, frekvenserna smyger sig uppåt samtidigt som processorn blir mer och mer effektiv per cykel. Vi ser det idag, jämför en två-kärnig Pentium 4 i 3Ghz med en 2-kärnig Phenom II i 3Ghz.

Att tro att det bara är att sätta in fler kärnor så stiger den reella prestandan är idiotiskt. Fler kärnor bör enbart sättas in i en konsumentenhet när det inte längre går att höja frekvenserna för arkitekturen i fråga. Det är där prestandavinsten finns, inte i flera kärnor. På HPC-sidan gäller andra regler eftersom programmen är konstruerade på ett annat sätt där man kan stycka upp i flera trådar på ett sätt som konsumentprogram inte klarar av.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem
Skrivet av Valiumballong:

Nej, det är nog du som har missat utvecklingen som skett. Det finns en gräns för hur hög frekvens man kan pressa ur en mikroarkitektur innan förhållandet mellan prestanda, värmeutveckling och strömförbrukning blir så skev att det inte längre är värt det. Det är då man lägger in fler kärnor. Det betyder inte att det finns en fast gräns, en universiell sanning, vad det gäller vilken frekvens som är möjlig. Processorer utvecklas, tillverkningstekniken blir bättre, frekvenserna smyger sig uppåt samtidigt som processorn blir mer och mer effektiv per cykel. Vi ser det idag, jämför en två-kärnig Pentium 4 i 3Ghz med en 2-kärnig Phenom II i 3Ghz.

Att tro att det bara är att sätta in fler kärnor så stiger den reella prestandan är idiotiskt. Fler kärnor bör enbart sättas in i en konsumentenhet när det inte längre går att höja frekvenserna för arkitekturen i fråga. Det är där prestandavinsten finns, inte i flera kärnor. På HPC-sidan gäller andra regler eftersom programmen är konstruerade på ett annat sätt där man kan stycka upp i flera trådar på ett sätt som konsumentprogram inte klarar av.

Ok och vad har den fasta gränsen med mitt inlägg att göra? det är ju inte direkt så att jag säger emot dig? Varför bakar du in massa självklara saker i ditt inlägg när det inte finns något i mitt inlägg som talar emot det du säger. Allt jag säger att trenden är fler kärnor per CPU. BD kommer med 8 kärnor och snart gör SB det också och dom som är quads använder sig av HT. Tegra 4 släpps ju inte imorgon direkt. Menar du på allvar att 8-kärniga cpuer kommer att vara onödiga 2013-2014? Asus transformer är ju i princip en fungerande laptop idag och om två år är den tillräckligt kraftig för vilken Svensson som helst.

Permalänk
Medlem
Skrivet av rullekorn82:

Allt jag säger att trenden är fler kärnor per CPU. BD kommer med 8 kärnor och snart gör SB det också och dom som är quads använder sig av HT.

Och allt jag säger är att, av utvecklingen fram till idag att döma, är fel väg att gå för konsumentenheter,

Skrivet av rullekorn82:

Tegra 4 släpps ju inte imorgon direkt. Menar du på allvar att 8-kärniga cpuer kommer att vara onödiga 2013-2014? Asus transformer är ju i princip en fungerande laptop idag och om två år är den tillräckligt kraftig för vilken Svensson som helst.

Tegra 4 släpps tillsammans med Windows 8 2012. Och ja, jag tror att 8-kärniga processorer kommer att vara bortkastade på mobila enheter även 2013-2014. Vi har inte sett någon anstormning av flertrådade program till vanliga konsumenter trots att quads har varit standard i flera år och som det ser ut idag går utvecklingen bort från lokal beräkningsprestanda till molnklienter. Jag delar absolut inte Nvidias vision om vilken beräkningskraft som kommer att kunna komma till användning om ~1 år.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10