Nvidia presenterar Tegra X1 med Maxwell

Permalänk

Vore inte denna, eller Apples A8X för den delen, vara kraftfull nog för att bygga en liten energisnål och tyst surf och mediadator med? Nu vet jag att det sitter en massa annat på en SoC som inte precis är behövligt för något som inte är en telefon, men borde det inte vid detta laget finnas en marknad för det här?

Jag hade i alla fall varit riktigt sugen på att köra någon ARM-anpassad linux-dist i en miniformat-datorr man kanske rent av kunde montera på baksidan av skärmarnas VESA-fästen (som Chromebox).

Permalänk
Datavetare
Skrivet av upl8447:

Du tänker på double precision. Vilket saknas på alla GTX kort i 6,7 och 9 serien. Tegra? Ehh. Det är en arm processor och nej jag tror knappast den har stöd för double precision. Du tänkte inte på quadro och tesla?

GPGPU är inte direkt något som går att plocka bort. "General-purpose computing on graphics processing units" Alla kort kan göra det men vissa är bättre än andra och double precison är nödvändigt när man handskas med tal som är längre än 32bit (2^32). Ett kort med double precision kan handskas med tal upp till 64bit (2^64)

Antar att du inte menar att stödet för DP saknas utan att det är något som man inte alls brytt sig om att optimera för då 64-bitars flyttal används i princip bara i rena beräkningar och inte för grafik. Rent teoretiskt har Maxwell 1/32 DP-prestanda mot SP-prestanda, i praktiken verkar skillnaden vara något mindre (typ 1:10 till 1:15). Kepler hade lite mindre skillnad, rent teoretiskt var DP 1/24 av SP, men Maxwell har å andra sidan bättre total prestanda.

Skrivet av Kenseilon:

Vore inte denna, eller Apples A8X för den delen, vara kraftfull nog för att bygga en liten energisnål och tyst surf och mediadator med? Nu vet jag att det sitter en massa annat på en SoC som inte precis är behövligt för något som inte är en telefon, men borde det inte vid detta laget finnas en marknad för det här?

Jag hade i alla fall varit riktigt sugen på att köra någon ARM-anpassad linux-dist i en miniformat-datorr man kanske rent av kunde montera på baksidan av skärmarnas VESA-fästen (som Chromebox).

Visst hade det fungerat, förutsatt att det finns drivrutiner tillgängligt för "vanliga" Linux-distar. Prestandamässigt ligger CPU-delen för både Nvidia X1 och Apple A8X i nivå med Intel Atom, men de båda ARM-systemkretsarna har betydligt kraftigare GPU-del.

I praktiken är de så mycket enklare att hålla på med x86-system om man vill köra en "vanligt" Linux-dist (och inte Android) så kanske bättre att köpa ett litet kort med Intel Atom eller AMD Jaguar (om man lyckas hitta ett sådant). Apple lär ju överhuvudtaget inte bry sig om att fixa drivare för deras systemkretsar till Linux.

Nvidia har tidigare skapat s.k. utvecklingskort, bl.a. för Tegra K1, så där finns en chans att samma sak kommer hända för X1. Det är inte RPi-pris på ett utvecklningskort, men det är inte gigantiska summor heller (typ några tusenlappar).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Cooling23:

Nvidia har alltid satsat hårt på Tegra men få produkter använder det. Konstigt.

För det är överhettnings problem på alla Tegra chipset som släppts och senaste som finns i Nexus 9 Tegra K1 också. Inte konstigt att det är få produkter som har Tegra chipset i dom då. Ju tunnare mobila produkter blir, ju desto omöjligt att få bra kylning och som inte orsaker överhettning.

Visa signatur

AMD 5900X|ASUS X570-E|Corsair 32GB 3200Mhz|Samsung 990 PRO 4TB + 980 Pro 1TB|ASUS TUF 3080 OC |LG 38GN950-B|Fractal Design Define R6 USB-C|Corsair RM1000X v3|Noctua NH-D15 SE-AM4|Corsair K70 RGB LUX|

Permalänk
Datavetare
Skrivet av XPerion:

För det är överhettnings problem på alla Tegra chipset som släppts och senaste som finns i Nexus 9 Tegra K1 också. Inte konstigt att det är få produkter som har Tegra chipset i dom då. Ju tunnare mobila produkter blir, ju desto omöjligt att få bra kylning och som inte orsaker överhettning.

Relativt sett klarade sig Tegra K1 bättre än Snapdragon och Exynos ur samma generation (d.v.s. Exynos 5433 och Snapdragon 810).

Exynos 5433 används så vitt jag vet i en produkt, Samsung Galaxy Note 4, tar man även med Exynos 5430 (som är 32-bit och har en något klenare GPU) så blir det bara en produkt till, Samsung Galaxy Alpha.

Snapdragon 810 används än slå länge i en produkt, LG G Flex. Tar man med Snapdragon 805 (antagligen den sista på Krait) så är Qualcomm storvinnare för mobiler men detta är trots allt rätt gammal teknik idag.

Tegra K1 är uteslutande designad för pekplattor, så den kan inte ens komma på fråga i mobiler ändå finns den i Shield, Acer Chromebook, XiaomMi MiPad, Nexus 9 (som i.o.f.s är den enda med Denver).

Stora problemet för alla Android-tillverkare är att Apple totalt dominerar marknaden för pekplattor och nu har den marknaden börjat stagnera vilket knappast gör det lättare för nya systemkretsar att bli någon riktigt supersuccé.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Antar att du inte menar att stödet för DP saknas utan att det är något som man inte alls brytt sig om att optimera för då 64-bitars flyttal används i princip bara i rena beräkningar och inte för grafik. Rent teoretiskt har Maxwell 1/32 DP-prestanda mot SP-prestanda, i praktiken verkar skillnaden vara något mindre (typ 1:10 till 1:15). Kepler hade lite mindre skillnad, rent teoretiskt var DP 1/24 av SP, men Maxwell har å andra sidan bättre total prestanda.

Maxwell om jag har förstått väldigt dålig DP jämfört med tidigare generationer typ 580. Man skulle nästa kunna tro att den saknar hårdvara för DP utan kör DP i någon form av microcode istället väldigt plats besparande och strömsnålare men slöare. Dock helt rätt val för ett gaming kort (notera att det är spekulationer från min sida)

Skrivet av AnandTech:

Double precision on the other hand is going to be the GTX 980’s weak point for obvious reasons. GM204 is a graphics GPU first and foremost, so it only has very limited 1:32 rate FP64 performance, leaving it badly outmatched by anything with a better rate. This includes GTX 780/780 Ti (1:24), AMD’s cards (1:8 FP64), and even ancient GTX 580 (1:8). If you want to do real double precision work, NVIDIA clearly wants you buying their bigger, compute-focused products such as GTX Titan, Quadro, and Tesla.

Visa signatur

"Gravity is a myth, the earth sucks."

Permalänk
Medlem
Skrivet av Yoshman:

Hittade en förklaring på min egen fråga hos AnandTech om varför man kör med 4st A53 och 4st A57. Nvidia väljer att inte använda den schemaläggaren som utvecklats inom intressegruppen för ARM som heter Linaro där det är möjligt för Linux-kärnan att "se" och använda alla kärnor samtidigt även om de är asymmetriska (t.ex. 4st A53 och 4st A57).

Nvidia väljer att INTE använda denna teknik utan i stället köra på modellen där en A53 (LITTLE) och en A57 (big) paras och vilken som används blir en del i frekvensskalningen som i sin tur bygger på hur mycket last kärnan har. Till skillnad från t.ex. Enyxos implementationerna som också ofta använt denna design så är Nvidias lösning helt cache-koherent (enligt AnandTech) vilket i så fall kan minska de problem som big.LITTLE tidigare haft med väldigt hög kostnad för att byta CPU-kärna vilket resultera både i sämre upplevd prestanda och högre faktiskt strömförbrukning i fallen där lasten varierar ofta (så man ofta byter mellan LITTLE och big kärnan).

När man kör med "cluster based scheduling" så måste man ha samma antal LITTLE-kärnor som big-kärnor.

Artikeln spekulerar också i varför man inte kör med Denver, gissningen är att Nvidia helt enkelt inte hunnit med att konvertera Denver till 20nm ännu.

En så enormt insatt och intelligent person som du skulle förklara neuron-nätverkande/databehandlande på vilket sätt? Vad är detta egentligen och varför har det blivit så frekvent omtalat numera inom alla möjliga databehandlingsområden?

Permalänk
Datavetare
Skrivet av random1234:

En så enormt insatt och intelligent person som du skulle förklara neuron-nätverkande/databehandlande på vilket sätt? Vad är detta egentligen och varför har det blivit så frekvent omtalat numera inom alla möjliga databehandlingsområden?

Har aldrig jobbat med neuron-nätverk, bara läst om det i skolan så har inte superkoll på hur det fungerar. Men gissar att företag som Google (sökning) och Microsoft (Bing) använder sådant då en av de åtråvärda egenskaparna av neuron-nätverk är att de kan "lära" sig vad en viss användare typiskt söker efter och det kan användas för att ranka sökträffar.

I stort sätt är ett neuron-nätverk ett gäng funktioner som tar ett eller flera argument och producerar ett resultat

Fn(X1,X2,...,Xm) = Rn

I ett neuron-nätverk kommer Rn för vissa funktioner vara in-parameter till andra funktioner (som kallas noder).

Träningen sker genom att anpassa en rad konstanter inuti funktionerna Fn så att utdata blir "bra" (under träning av nätverket måste man ha ett numerisk värde för vad "bra" är).

Själv var jag alltid mer fascinerad av genetic programming än neuron-nätverk, men har inte jobbat professionellt med den tekniken heller.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av upl8447:

Du tänker på double precision. Vilket saknas på alla GTX kort i 6,7 och 9 serien. Tegra? Ehh. Det är en arm processor och nej jag tror knappast den har stöd för double precision. Du tänkte inte på quadro och tesla?

GPGPU är inte direkt något som går att plocka bort. "General-purpose computing on graphics processing units" Alla kort kan göra det men vissa är bättre än andra och double precison är nödvändigt när man handskas med tal som är längre än 32bit (2^32). Ett kort med double precision kan handskas med tal upp till 64bit (2^64)

Skrev fel jag menade såklart Quadro och Tesla.

Okej tack för korregeringen! Jag trodde de faktiskt hade tagit bort gpgpu delen på Nvidia korten men då hade jag fel.