Nvidia tillkännager Tegra K1 med Kepler

Permalänk
Datavetare
Skrivet av S_Z:

Jag håller inte riktigt med, i vilket fall menar du att de skulle vara den bäst presterande GPU i dagsläget?

Så vitt jag kan se presterar Tegra 4 helt ok men fortfarande sämre än Adreno 330 och PowerVR G6430 i samtliga tester, även 3DMark och Basemark X (som likt 3Dmark skall likna ett spel):

3Dmark, Unlimimited Graphics Score:
Tegra 4 (Tegra Note 7), 16652 http://community.futuremark.com/hardware/mobile/NVIDIA+Tegra+...
Adreno 330 (Z1), 17573: http://community.futuremark.com/hardware/mobile/Sony+Xperia+Z...
PowerVR G6430 (iPhone 5S), 18512, http://community.futuremark.com/hardware/mobile/Apple+iPhone+...

Det jag dock kan hålla med om är att det är nVidias bästa försök hittills, de är mycket närmare konkurrenterna än tidigare Tegra varit.

Ok, kanske inte helt korrekt att använda Shield då den har en fläkt och därmed blir mindre thermal-throttled än de andra och ALLA moderna SoC lider verkligen av thermal-throttling, på pappret ska inte GPU-delen i Z3770 alls kunna hänga med men den verkar lida väldigt lite av thermal-throttlning och är nog därför den kan matcha de andra i "tunga" laster.

Och i praktiken så visar både de siffror du listar och de jag länkar att det inte finns någon praktisk skillnad i GPU-prestanda mellan de olika tillverkarnas high-end SoC:er, i ditt fall skiljer det runt 10% mellan tegra 4 och PowerVR G6430, ingen människa kommer märka skillnad på det. Notera hur Z3470 (T100, Z3770 är upp till 25% snabbare) kommer ikapp när scenen är komplexare och "thermal-throttlning" blir ett större problem.

Det som inte syns i benchmarks är att t.ex. Tegra2 kunde hantera 4 gånger så stora texturer som samtida PowerVR-chip och spel som var Tegra2 optimerade på den tiden såg verkligen bättre ut. Men idag tycker jag det är väldigt svårt att se skillnad på ett och samma spel körandes på de olika high-end SoCerna, i alla fall med blotta ögat.

Edit: och jämför PowerVR prestandan i ett rent syntetiskt test, det totalt demolerar alla andra

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Ok, kanske inte helt korrekt att använda Shield då den har en fläkt och därmed blir mindre thermal-throttled än de andra och ALLA moderna SoC lider verkligen av thermal-throttling, på pappret ska inte GPU-delen i Z3770 alls kunna hänga med men den verkar lida väldigt lite av thermal-throttlning och är nog därför den kan matcha de andra i "tunga" laster.
http://images.anandtech.com/graphs/graph7460/59408.png

http://images.anandtech.com/graphs/graph7460/59413.png

Och i praktiken så visar både de siffror du listar och de jag länkar att det inte finns någon praktisk skillnad i GPU-prestanda mellan de olika tillverkarnas high-end SoC:er, i ditt fall skiljer det runt 10% mellan tegra 4 och PowerVR G6430, ingen människa kommer märka skillnad på det. Notera hur Z3470 (T100, Z3770 är upp till 25% snabbare) kommer ikapp när scenen är komplexare och "thermal-throttlning" blir ett större problem.

Det som inte syns i benchmarks är att t.ex. Tegra2 kunde hantera 4 gånger så stora texturer som samtida PowerVR-chip och spel som var Tegra2 optimerade på den tiden såg verkligen bättre ut. Men idag tycker jag det är väldigt svårt att se skillnad på ett och samma spel körandes på de olika high-end SoCerna, i alla fall med blotta ögat.

De siffor du visar är dock sammanställning av fysik och grafiktesterna, alltså både rena CPU tester och GPU tester. Det är känt att A7 (Cyclone) inte kan dra nytta av sin förbättrade arkitektur i 3DMarks fysiktest (presterar aningen sämre än A6 t o m) och därför blir dess totalpoäng lidande. De siffror jag länkar till är totalpoängen för grafiktesterna (Unlimited Graphics Score) och där är fortfarande Tegra 4 efter, även Shield med sin fläkt. Visst är skillnaden inte så stor men rätt skall vara rätt

Vad gäller Tegra 2/3 optimerade spel så säger det ingenting egentligen enligt mig. Du skulle kunna klämt ur mer ut samtliga high-end GPU:er om du visste att du inte behövde ta hänsyn till långsammare enheter. Inga av de Tegra 2/3 optimerade spelen nåde enligt mig upp till den nivån som spel som Infinity Blade eller Real Racing serien på iOS enheterna. Det är ju lite samma sak där, enklare att optimera spelen när du vet vilka resurser du har till ditt förfogande.

Permalänk
Datavetare
Skrivet av S_Z:

De siffor du visar är dock sammanställning av fysik och grafiktesterna, alltså både rena CPU tester och GPU tester. Det är känt sedan tidigare att A7 (Cyclone) inte kan dra nytta av sin förbättrade arkitektur i 3DMarks fysiktest (presterar aningen sämre än A6 t o m) och därför blir dess totalpoäng lidande. De siffror jag länkar till är totalpoängen för grafiktesterna (Unlimited Graphics Score) och där är fortfarande Tegra 4 efter, även Shield med sin fläkt. Visst är skillnaden inte så stor men rätt skall vara rätt

Vad gäller Tegra 2/3 optimerade spel så säger det ingenting egentligen enligt mig. Du skulle kunna klämt ur mer ut samtliga high-end GPU:er om du visste att du inte behövde ta hänsyn till långsammare enheter. Inga av de Tegra 2/3 optimerade spelen nåde enligt mig upp till den nivån som spel som Infinity Blade eller Real Racing serien på iOS enheterna. Det är ju lite samma sak där, enklare att optimera spelen när du vet vilka resurser du har till ditt förfogande.

Att A7 inte är snabbare på fysiktester gissar jag att det beror på att flaskhalsen är något som fungerar väldigt effektivt med NEON, den teoretiska flyttalsprestandan/MHz är densamma på A6 och A7 om man använder NEON.

Man får inte glömma att Tegra4 började säljas Q2 2013, så när man jämför A7 med Tegra4 så jämför man produkter som ligger ungefär ett halvår ur synk. De siffror du länkar visar att Tegra4 trots allt är helt jämförbar med A7 och betydligt mycket snabbare än A6.

Ska sedan tillägga att jag rent personligen tycker att alla SoC för pekplattor utom Intels har helt fel fokus. GPU-delen har inte varit en flaskhals givet nivån på de spel/applikationer som finns för tillfället, däremot så är CPU-delen fortfarande en ganska stor flaskhals ibland. I A7 fokuserade Apple rejält på CPU-delen, så det är riktigt bra. Ser även ut som nVidia kommer med en rejält mycket bättre CPU-delen när "Denver" kommer ut.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Tycker det är väldigt orättvist mot nVidia. Tyvärr är ju de benchmarks som idag används för mobila plattformar helt bedrövliga om man vill veta hur en viss enhet står sig mot en annan i "verkliga" program, iPad4 vs iPad Air (A6 mot A7) är nog en av de mesta talande exemplen: benchmarks som Geekbench pekar på att A7 är x3 snabbare men i verkliga program har det visat sig att A7 presterar runt 30-40% bättre än A6...

Samma problem tycker jag det finns med de grafikbaserade benchmarksen, PowerVR presterar brutalt bra i alla de benchmarks som mäter rå triangel kapacitet, rå fill-rate kapacitet etc. Men när det kommer till saker som mer liknar vad ett spel skulle skapa för arbetslast, t.ex. 3DMark (som fortfarande inte är i närheten ett lika bra test som ett "riktigt" spel) så presterar ju både Z3770 och Snapdragon 800 i nivå med A7 och Tegra 4 är ju det SoC som presterar bäst (även om det är med liten marginal)!

Tycker det är så skönt att se att nVidia äntligen skippar idiotin med många och relativt långsamma CPU-kärnor när de designar Denver. Varför göra 4 (eller 8) kärnor med 32kB L1 cache och relativt "smal" design när samma mängd transistorer kan ge 2 kärnor med 128kB/64kB L1 och en väldigt "bred" design (betydligt bredare än vad AnandTech gissar att A7 är).

Gissar att "7-way superscalar" inte betyder att den kan avkoda 7 instruktioner per cykel (då lär den får en rätt hög TDP alt. väldigt låg frekvens) utan att den kan köra upp till 7 instruktioner per cykel. Det kan jämföras mot "big-core" x86 där Sandy/Ivy Bridge kan köra 6 µops och Haswell 8µops!

Tror däremot inte att Denver kommer få speciellt mycket högre IPC än Apples A7, effekten av att öka bredden på en CPU avtar extremt snabbt med varje steg. Att gå från 1->2 ger 50-90%, 2->4 ger kanske 30-40%, 4->8 kanske ger 10-20% (jämför IPC skillnaden mellan IVB och HSW som gick från 6->8). Sedan har det visat sig att Apple lade extremt mycket krut på en väldigt bra L1 och L2 cache i A7, frågan är om nVidia lyckas lika bra här då det är extremt svårt att designa ett bra minnesaccess-system i en modern CPU. Att Silvermont (som är 2-way superscalar) står sig så väl är p.g.a. att den har den bästa L2-cache designen av alla nu existerande mobil CPUer, Apples A7 inräknad.

Dold text

Väntade mig ett inlägg från dig angående K1
Verkar lovande.

Enligt denna bild går Denver-kärnorna upp till 2.5GHz. Då borde den med samma IPC som A7 prestera betydligt bättre.

För de som vill läsa mer rekommenderar jag denna artikel: http://www.anandtech.com/show/7622/nvidia-tegra-k1

Visa signatur

i7 3770K @ 4,5GHz, P8Z77-V Pro, Vengeance LP 4x4GB, GTX 1650 Super, Crucial m4 128GB, Toshiba 3TB, CM Storm Enforcer, Xigmatek 600W, XL2420T 120Hz

Permalänk
Quizmaster Malmö 22

Jösses alltså....efter 4min när han stod o lovordade sitt företag med att de har gjort mer än alla andra företag i grafikbranschen så höjde jag på ögonbrynen över hur han kan stå o säga det utan att skämmas lite....

Sen malde han på i ytterligare 4min innan jag fick nog o stängde videon. Orka lyssna på honom i 1.5 tim!

Han måtte vara den drygaste jäkel som någonsin stått förkyld på en scen!

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem