Nvidia presenterar Tegra X1 med Maxwell

Permalänk
Melding Plague

Nvidia presenterar Tegra X1 med Maxwell

Hemelektronikmässan CES 2015 rivstartar med Nvidias introduktion av en ny systemkrets i familjen Tegra, bland annat med arkitekturen Maxwell och hela 256 CUDA-kärnor.

Läs artikeln

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Klart Nvidia ska snacka Tegra

Visa signatur

i7-2700K 5GHz | 32GB DDR3-1600 | ASUS Maximus V Gene | GTX 980 2-way SLI

Permalänk
Medlem
Skrivet av Teddis:

Klart Nvidia ska snacka Tegra

Hade det varit CES annars?

Visa signatur

Desktop: MSI MPG X570 GAMING PLUS, AMD Ryzen 9 5950X, Be Quiet Dark Rock Pro 4, 32GB G.Skill Trident Z RGB 3200,
ASUS ROG STRIX GeForce GTX 1080 8GB GAMING, Samsung 970 EVO Plus 500GB
Notebook: Macbook Pro 14" M1 Pro

Permalänk
Medlem

Tegra!!!!

Nvidia vet vad publiken vill ha.

Självstyrande bilar med Tegra X1 i SLI!!!

Visa signatur

42? Seven and a half million years and all you can come up with is 42?!
► FD Define R2 | Win10Pro | i7-3770K | Hyper212+ SP120PWM | P8P67 PRO | CML8GX3M2A1600C9 | 1080 Ti | AX750 | Asus VG27WQ | Eizo S2100 | HP Z24n |► OnePlus 6 |

Permalänk
Medlem

frågan e om det e bättre än ett 8800gtx ens

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk
Medlem

ÄNTLIGEN! DIGITAL HASTIGHETSMÄTARE I BILEN I 4K OCH 60 FPS! #framtiden

Visa signatur

..:: trickeh2k ::..
Windows 11 Pro - Ryzen 7 7800X3D - ASUS TUF B650-PLUS - Kingston FURY Beast DDR5 64GB CL36 - MSI MAG A850GL - MSI RTX 4080 VENTUS 3X OC - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/Logitech G PRO Wireless - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, Crucial MX500 1TB, Kingston KC3000 2TB - Steelseries Arctic 5 - Cooler Master Masterbox TD500 Mesh V2

Permalänk
Medlem

Nvidia har alltid satsat hårt på Tegra men få produkter använder det. Konstigt.

Visa signatur

Chassi: Corsair 4000D CPU: Intel i7 11700K RAM: 32Gb DDR4 Moderkort: ASUS Z590-F
Grafik: RTX 3070 Ti OS: W11 SSD: M.2 1TB snabb som tusan

Permalänk
Medlem
Skrivet av trickysaer:

ÄNTLIGEN! DIGITAL HASTIGHETSMÄTARE I BILEN I 4K OCH 60 FPS! #framtiden

Jag vill ha G-sync på min hastighetsmätare, annars får det vara!

Visa signatur

i7-2700K 5GHz | 32GB DDR3-1600 | ASUS Maximus V Gene | GTX 980 2-way SLI

Permalänk
Medlem

Nä nu får ni fan sluta, det här var väldigt intressant.

Visa signatur

RABBLERABBLERABBLERABBLERABBLERABBLERABBLERABBLERABBLERABBLE

Permalänk
Medlem
Skrivet av gabinono:

Nä nu får ni fan sluta, det här var väldigt intressant.

Det är det säkert, det var bara upplägget på artikeln som kändes lite roligt när man berättade vad den var kapabel till och sedan vad de tänkte att den skulle användas primärt Jag ställer mig dock tveksam till dessa "självgående" bilar. Jag skulle aldrig våga sätta mig i en sådan

Visa signatur

..:: trickeh2k ::..
Windows 11 Pro - Ryzen 7 7800X3D - ASUS TUF B650-PLUS - Kingston FURY Beast DDR5 64GB CL36 - MSI MAG A850GL - MSI RTX 4080 VENTUS 3X OC - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/Logitech G PRO Wireless - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, Crucial MX500 1TB, Kingston KC3000 2TB - Steelseries Arctic 5 - Cooler Master Masterbox TD500 Mesh V2

Permalänk
Medlem

Är det värt att de kör vidare på Tegra? Känns som att det hamnar i kanske ca 3 modeller per år (mobiler/surfplattor).

Kanske är mer för bilar och andra inbyggda system???

Visa signatur

AMD 5800X ▪ MSI B550M Mortar ▪ G.Skill 32GB 3600MHz CL16 ▪ Palit 4070 Ti ▪ 1TB SSD 970 Evo+ ▪ Dark Power 13 1000W ▪ FD Define Mini C ▪ Aorus AD27QD + LG 27GL850

Permalänk
Inaktiv

Självstyrande bilar som körs på en tegra dator? Mja.. nej tack!

Har gärna en tegra i bilen, men koppla den för guds skull inte till motor/styrning/bromssystem!

Iofs så är väl alla nya bilar redan idag datoriserade och uppkopplade, men rätt väg vore att få det ogjort.

Permalänk
Medlem
Skrivet av #enbom:

Är det värt att de kör vidare på Tegra? Känns som att det hamnar i kanske ca 3 modeller per år (mobiler/surfplattor).

Kanske är mer för bilar och andra inbyggda system???

Finns nog en massa potentiella kunder inom flera olika områden där det här kan vara väldigt användbart och det finns en mycket högre chans till god vinstmarginal jämfört med de prispressade och hårt konkurrensutsatta marknaderna för mobiler och plattor.

Permalänk
Medlem
Skrivet av anon56869:

Självstyrande bilar som körs på en tegra dator? Mja.. nej tack!

Har gärna en tegra i bilen, men koppla den för guds skull inte till motor/styrning/bromssystem!

Iofs så är väl alla nya bilar redan idag datoriserade och uppkopplade, men rätt väg vore att få det ogjort.

Och efter ett halvår skulle systemet vara segt som sirap (Android;).

Det rör sig alltså om en rätt biffig krets vilket gör att endast vissa segment är aktuella, har inte Nvidia redan nu svårt att nå ut med volymer på dessa områden?

Visa signatur

/havoc

Permalänk
Datavetare

Numera förtjänar faktiskt Nvidia framgångar med Tegra. Helt uppenbart underskattade Nvidia hur annorlunda GPUer för mobiler är i form av design och optimering, fram till och med Tegra3 hade man helt enkelt en sämre produkt än konkurrenterna.

K1 står sig däremot fortfarande riktigt bra, på GPU-sidan ligger den än idag i topp där enda jämbördiga konkurrent idag är Apples A8X (A8 hänger inte med) som då kom ut ca 3 kvartal senare.

Däremot lite svårt att förstå varför Nvidia inte använder sin egen Denver CPU i denna design. Kan det vara så att man har problem med den designen? Har tyvärr varit väldigt dåligt med bra tester av Nexus 9, bl.a. AnandTech lovade ett test långt innan jul men har fortfarande inte sett något mer än den snabbtest de gjorde på en beta-release.

Och om man nu kör med Cortex A53/A57 i big.LITTLE, varför använder man 4x4 konfiguration i stället för den av ARM rekommenderade konfigurationen på 4st A53 och 2st A57? Cortex A15 (som bl.a. sitter i Shield tablet) var inget under av strömsnålhet och Cortex A57 drar mer ström än Cortex A15 (fast har också bättre prestanda).

Edit: blev lite fel, ändrat Tegra4 till K1 i jämförelsen med A8X. Tegra4 var däremot helt OK på sin tid jämfört med konkurrenterna, men blev omsprungen innan K1 kom ut.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Själv tycker man ju att de borde gjort en Apple, och visat några grymma spel som utnyttjar denna nya hårdvara. Kan tänka mig att vi "börjar närma oss" PS3/Xbox 360 grafik vid det här laget!

Visa signatur

Stationär: Ryzen 5 3600 | Asus GTX 980
Bärbar: Razer Blade 15 Advanced 2020 | 4K OLED | RTX 2080 Super

Permalänk
Datavetare
Skrivet av DanneCool:

Själv tycker man ju att de borde gjort en Apple, och visat några grymma spel som utnyttjar denna nya hårdvara. Kan tänka mig att vi "börjar närma oss" PS3/Xbox 360 grafik vid det här laget!

Helt klart! Tidigare har alla referenser kring att man nått PS3/Xbox360 grafiknivå har varit orimliga då bandbredden överhuvudtaget inte legat på samma nivå som konsolerna och det är ofta en av de större flaskhalsarna. Tegra X1 har samma bandbredd som PS3!

Det är fortfarande en viss fördel på bandbreddssidan för PS3/Xbox360. PS3 hade separat minne för Cell respektive GPU och Xbox360 hade 10MB eDRAM med 32GB/s bandbredd som i många fall kan adderas till bandbredden mot RAM på ~22GB/s som delades mellan GPU och CPU. Men det handlar inte längre om flera heltalsfaktorer i skillnad och det finns många andra punkter i moderna mobilkretsar som är mer avancerade än GPUerna i PS3/Xbox360.

Apple har redan lagt till optimeringar i form av specifikt cache-minne likt eDRAM/eSRAM i Xbox360/XBO, frågan är om inte Nvidia borde gjort det också då det tar bort en hel del tryck från RAM-bussen.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Så om man vill ha en HTPC med hårdvaru H.265 acceleration så är det bara att parkera en Audi vid teven?

Permalänk

Kommer det komma mobila enheter med Tegra X1 eller kommer man enbart använda den i bilar? Som jag förstår nyheten verkar man helt satsa på bilar denna gången?

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Medlem

Allt oftare talas det om neuron-nätverk i datasammanhang. Både vid videoprocessering och annan databehandling. Är det någon som lite förenklat kan förklara vad detta egentligen är och hur det fungerar? Har inte riktigt greppat av det jag läst om tekniken.

Permalänk
Medlem
Skrivet av trickysaer:

Jag ställer mig dock tveksam till dessa "självgående" bilar. Jag skulle aldrig våga sätta mig i en sådan

Högst relevent : http://www.ted.com/talks/jeremy_howard_the_wonderful_and_terr...

Permalänk
Medlem

Äntligen
Nu kan man spela Angry birds i 4k, 60 fps i bilen på väg till jobbet

Visa signatur

Arbets Riggen----------------------------------------LAN Riggen
Chassi corsair 650d-----------------------------------Chassi corsair 250d
Moderkort Asrock Extreme4------------------------Moderkort ASUS VI IMPACT
CPU 3570K 4.6 ghz------------------------------------CPU i7-4770K 4.5 ghz
GPU Msi Gtx 660Ti Power Edition SLI---------------GPU GTX Titan Black

Permalänk
Medlem
Skrivet av random1234:

Allt oftare talas det om neuron-nätverk i datasammanhang. Både vid videoprocessering och annan databehandling. Är det någon som lite förenklat kan förklara vad detta egentligen är och hur det fungerar? Har inte riktigt greppat av det jag läst om tekniken.

Är ingen expert på ämnet direkt, men videon jag länkade förklarar en del om det. (Även om han mest pratar om vad som har åstadkommits med det)

Grundläggande ideen är väl att skapa associationer mellan saker. Mer likt så våra hjärnor fungerar än hur en dator klassiskt arbetar.

Permalänk
Moderator
Festpilot 2020, Antiallo
Skrivet av Yoshman:

Numera förtjänar faktiskt Nvidia framgångar med Tegra. Helt uppenbart underskattade Nvidia hur annorlunda GPUer för mobiler är i form av design och optimering, fram till och med Tegra3 hade man helt enkelt en sämre produkt än konkurrenterna.

Tegra4 står sig däremot fortfarande riktigt bra, på GPU-sidan ligger den än idag i topp där enda jämbördiga konkurrent idag är Apples A8X (A8 hänger inte med) som då kom ut ca 3 kvartal senare.

Däremot lite svårt att förstå varför Nvidia inte använder sin egen Denver CPU i denna design. Kan det vara så att man har problem med den designen? Har tyvärr varit väldigt dåligt med bra tester av Nexus 9, bl.a. AnandTech lovade ett test långt innan jul men har fortfarande inte sett något mer än den snabbtest de gjorde på en beta-release.

Och om man nu kör med Cortex A53/A57 i big.LITTLE, varför använder man 4x4 konfiguration i stället för den av ARM rekommenderade konfigurationen på 4st A53 och 2st A57? Cortex A15 (som bl.a. sitter i Shield tablet) var inget under av strömsnålhet och Cortex A57 drar mer ström än Cortex A15 (fast har också bättre prestanda).

Tänkte precis detsamma, vad hände med Denver och varför så energislukande konfiguration? Kanske faktiskt finns användning för flera starkare kärnor om man skall sälja dessa till biltillverkare och dylikt, finns ju energi att tillgå i bilen om inte annat. Inte direkt som att batteritid är jättekritiskt om man sitter på ett bilbatteri.

Skulle vilja se en Denver +256Maxwell SoC. Gärna som en "billigt" enkortsdator likt de andra konkurrenterna. X2 kanske?

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Datavetare

Hittade en förklaring på min egen fråga hos AnandTech om varför man kör med 4st A53 och 4st A57. Nvidia väljer att inte använda den schemaläggaren som utvecklats inom intressegruppen för ARM som heter Linaro där det är möjligt för Linux-kärnan att "se" och använda alla kärnor samtidigt även om de är asymmetriska (t.ex. 4st A53 och 4st A57).

Nvidia väljer att INTE använda denna teknik utan i stället köra på modellen där en A53 (LITTLE) och en A57 (big) paras och vilken som används blir en del i frekvensskalningen som i sin tur bygger på hur mycket last kärnan har. Till skillnad från t.ex. Enyxos implementationerna som också ofta använt denna design så är Nvidias lösning helt cache-koherent (enligt AnandTech) vilket i så fall kan minska de problem som big.LITTLE tidigare haft med väldigt hög kostnad för att byta CPU-kärna vilket resultera både i sämre upplevd prestanda och högre faktiskt strömförbrukning i fallen där lasten varierar ofta (så man ofta byter mellan LITTLE och big kärnan).

När man kör med "cluster based scheduling" så måste man ha samma antal LITTLE-kärnor som big-kärnor.

Artikeln spekulerar också i varför man inte kör med Denver, gissningen är att Nvidia helt enkelt inte hunnit med att konvertera Denver till 20nm ännu.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av DanneCool:

Själv tycker man ju att de borde gjort en Apple, och visat några grymma spel som utnyttjar denna nya hårdvara. Kan tänka mig att vi "börjar närma oss" PS3/Xbox 360 grafik vid det här laget!

Tegra K1 är redan i nivå med PS3 och Xbox 360. Mer GPU-kraft än konsolerna, men har i stället lägre bandbredd och texture fill rate.

Trine 2 är inte det snyggaste spelet som finns på förra generationens konsoler och utnyttjar nog långt ifrån hela hårdvaran, men det är enligt mig ändå ett snyggt spel. UE4 ser däremot riktigt vackert ut på K1 och jag kan med ganska så stor säkerhet säga att X1 slår både PS3 och 360 på fingrarna. Lite synd dock att Nvidia väljer att fokusera på bilbranschen med X1. En stationär spelkonsol med X1 hade inte suttit fel.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Moderator
Festpilot 2020, Antiallo
Skrivet av Yoshman:

Hittade en förklaring på min egen fråga hos AnandTech om varför man kör med 4st A53 och 4st A57. Nvidia väljer att inte använda den schemaläggaren som utvecklats inom intressegruppen för ARM som heter Linaro där det är möjligt för Linux-kärnan att "se" och använda alla kärnor samtidigt även om de är asymmetriska (t.ex. 4st A53 och 4st A57).

Nvidia väljer att INTE använda denna teknik utan i stället köra på modellen där en A53 (LITTLE) och en A57 (big) paras och vilken som används blir en del i frekvensskalningen som i sin tur bygger på hur mycket last kärnan har. Till skillnad från t.ex. Enyxos implementationerna som också ofta använt denna design så är Nvidias lösning helt cache-koherent (enligt AnandTech) vilket i så fall kan minska de problem som big.LITTLE tidigare haft med väldigt hög kostnad för att byta CPU-kärna vilket resultera både i sämre upplevd prestanda och högre faktiskt strömförbrukning i fallen där lasten varierar ofta (så man ofta byter mellan LITTLE och big kärnan).

När man kör med "cluster based scheduling" så måste man ha samma antal LITTLE-kärnor som big-kärnor.

Artikeln spekulerar också i varför man inte kör med Denver, gissningen är att Nvidia helt enkelt inte hunnit med att konvertera Denver till 20nm ännu.

Jo men det låter som ett vettigt sätt att använda big.LITTLE och minimera cache-kostnaden. Då förstår man uppsättningsvalet.
20nm problem låter med troliget med tanke på hur det går för FABs:en.

Skrivet av Gender Bender:

Tegra K1 är redan i nivå med PS3 och Xbox 360. Mer GPU-kraft än konsolerna, men har i stället lägre bandbredd och texture fill rate.

Trine 2 är inte det snyggaste spelet som finns på förra generationens konsoler och utnyttjar nog långt ifrån hela hårdvaran, men det är enligt mig ändå ett snyggt spel. UE4 ser däremot riktigt vackert ut på K1 och jag kan med ganska så stor säkerhet säga att X1 slår både PS3 och 360 på fingrarna. Lite synd dock att Nvidia väljer att fokusera på bilbranschen med X1. En stationär spelkonsol med X1 hade inte suttit fel.

Problemet är ju dock att bandbredden var så mycket lägre. Det påverkar enormt när man spelar spel som faktiskt använder lite mer krävande texturer. Trine är ju inte direkt proppat med HDtexturer. Det mesta ser ut som ganska simpla texturer med massa filter och eftereffekter (bloom, OccularO och kantutjämning bland annat). Detta passar K1 perfekt men ska man spela spel som Half-life eller liknande så kommer det vara en viss skillnad, ska man ta det ännu längre hade den inte klarar att hänga med i svängarna, dock är det inte så realistiskt då varken Modern-Warfare eller Battlefield finns till ARM

Att ha en X1 på konsol låter dock inte speciellt troligt. Inga andra Androidbaserade konsoler har kommit speciellt långt. Kolla på Ouya hype:en som dog?
Sedan skall man inte glömma att det egentligen endast är Tegra plattan som är androidbaserad spelkonsol idag, den klarar det men den stora fördelen är in-home streaming. Tror tyvärr att X1 konsol är ganska dött ekonomiskt spår för Nvidia att ta.

Inga utvecklingsfördelar för de stora företagen då de senaste konsolerna är alla x86 tillsammans med PCMasterRace.
Kommer bli dyr, så ingen ekonomisk fördel. SoC:et för K1 kostade väl i storleksordningen 1600-1900kr. Sedan ska man lägga till chassi, lagring, kontrollers, distrubution, moms etc, den kommer kosta närmare 3000-4000kr. Och då är den svagare än X1 och PS4.

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Inaktiv

Har jag rätt när jag säger att GTX 9xx serien inte har GPGPU? Bara Titan och Tegra har dem?

Det var med GTX 6xx slutade använda GPGPU eller var det med GTX7xx serien?

Permalänk
Medlem
Skrivet av anon114264:

Har jag rätt när jag säger att GTX 9xx serien inte har GPGPU? Bara Titan och Tegra har dem?

Det var med GTX 6xx slutade använda GPGPU eller var det med GTX7xx serien?

Du tänker på double precision. Vilket saknas på alla GTX kort i 6,7 och 9 serien. Tegra? Ehh. Det är en arm processor och nej jag tror knappast den har stöd för double precision. Du tänkte inte på quadro och tesla?

GPGPU är inte direkt något som går att plocka bort. "General-purpose computing on graphics processing units" Alla kort kan göra det men vissa är bättre än andra och double precison är nödvändigt när man handskas med tal som är längre än 32bit (2^32). Ett kort med double precision kan handskas med tal upp till 64bit (2^64)

Visa signatur

HDD 1: Surface Book 2 15" (W10 Enterprise)
HDD 2: RYZEN 5900X, 64GiB, 2TB SSD, 2080 Super (W10 Enterprise)
Colo: 3 x Dell R710 (proxmox)

Permalänk
Medlem
Skrivet av upl8447:

Du tänker på double precision. Vilket saknas på alla GTX kort i 6,7 och 9 serien. Tegra? Ehh. Det är en arm processor och nej jag tror knappast den har stöd för double precision. Du tänkte inte på quadro och tesla?

GPGPU är inte direkt något som går att plocka bort. "General-purpose computing on graphics processing units" Alla kort kan göra det men vissa är bättre än andra och double precison är nödvändigt när man handskas med tal som är längre än 32bit (2^32). Ett kort med double precision kan handskas med tal upp till 64bit (2^64)

Första gången Nvidia var på GeForce 6,7,8,9 serierna För runt en tio år sen så har jag för mig att 8 serien var den första med GPGPU stöd.
GeForce 8600GT är det äldsta kort jag har haft med Cuda stöd.

(Inte så påhittiga namn att i stort sett bara loopa om ungefär samma nummer. Å andra sidan är Microsoft tillbaka på 1 redan efter sin andra Xbox, så det hade väl kunnat vara värre...)