Tegra 4 med 72 grafikkärnor.

Permalänk
Avstängd

Tegra 4 med 72 grafikkärnor.

http://m.tomshardware.com/news/Tegra-4-72-cores-Ultra-HD-4-PL...

Ser ut som om resterande chiptillverkare får lägga på ett kol.

Visa signatur

Drag and drop är uppfunnet, varför komplicera med mjukvara???
Dubbelmoral? Bättre att tiga och se dum ut än att öppna munnen och bevisa det. ;)

Permalänk
Medlem
Skrivet av raidarn:

http://m.tomshardware.com/news/Tegra-4-72-cores-Ultra-HD-4-PL...

Ser ut som om resterande chiptillverkare får lägga på ett kol.

Tegra 2 och 3 har i mina ögon varit klara besvikelser vad gäller GPU-prestanda med tanke på att det kommer från en av de ledande GPU-tillverkarna på datorsidan. Skall bli intressant att se om det blir tredje gången gillt för nVidia.

Tror dock de får svårt mot konkurrenterna även denna gång. Nu är det ju inte så enkelt men om vi skulle ta resultatet för Tegra 3 i GLBenchmark och multiplicera det med sex så blir det ändå inte mycket bättre än A6X som sitter i iPad4.

I A6X sitter det en GPU från Imagination Technologies nuvarande generation, SGX554MP4+. Under 2013 förväntas de släppa sin nästa generation GPU, Series 6 aka Rouge som skall vara betydligt kraftfullare än nuvarande generation.

Även ARM (Mali) och Qualcomm(Adreno) har ju nya GPU:er på gång så tror nVidia får det svårt att ligga i topp även 2013.

På CPU sidan så får man väl gissa att det är ARM Cortex A15 som sitter i Tegra 4 även om de inte skrivit ut det. Hur som helst blir det ett intressant år med nya generationer CPU:er och GPU:er från flertalet tillverkare.

Permalänk
Hedersmedlem

Håller med SZ. Nvidia må vara stora på desktop grafik, men strömsnåla kretsar för mobila enheter är något helt annat. Det är sin sak att bygga en krets som kan prestera bra när den kan dra i princip hur mycket ström som helst. Att bygga en krets som har bra prestanda men nästan ingen strömförbrukning kan vara något helt annat.

Man kan bara titta på Intel och AMD som är väldigt stora på desktop, men förhållandevis små på mobilt om man jämför med ARM.

Visa signatur

Använd gilla för att markera nyttiga inlägg!

Permalänk
Medlem
Skrivet av S_Z:

Tegra 2 och 3 har i mina ögon varit klara besvikelser vad gäller GPU-prestanda med tanke på att det kommer från en av de ledande GPU-tillverkarna på datorsidan. Skall bli intressant att se om det blir tredje gången gillt för nVidia.

Tror dock de får svårt mot konkurrenterna även denna gång. Nu är det ju inte så enkelt men om vi skulle ta resultatet för Tegra 3 i GLBenchmark och multiplicera det med sex så blir det ändå inte mycket bättre än A6X som sitter i iPad4.

I A6X sitter det en GPU från Imagination Technologies nuvarande generation, SGX554MP4+. Under 2013 förväntas de släppa sin nästa generation GPU, Series 6 aka Rouge som skall vara betydligt kraftfullare än nuvarande generation.

Även ARM (Mali) och Qualcomm(Adreno) har ju nya GPU:er på gång så tror nVidia får det svårt att ligga i topp även 2013.

På CPU sidan så får man väl gissa att det är ARM Cortex A15 som sitter i Tegra 4 även om de inte skrivit ut det. Hur som helst blir det ett intressant år med nya generationer CPU:er och GPU:er från flertalet tillverkare.

Eftersom Tegra 3 säljer otroligt bra och finns i otroligt många enheter, både i lägre prissatta telefoner och lite dyrare så ser jag inte att de misslyckats för sig själva.

Jag har inte sätt vad Tegra 4 går för än så jag ska inte nedvärdera det i förväg och ett GPU test att skryta med säger inte mycket om hur kompentent en SoC är. Det vet förhoppningsvis du med...

iPad4 är ju bara en mjölkprodukt som är framstressad, den kom omotiverat nära iPad 3 vilket visar att de bara tagit en lite snabbare SoC och säga att produkten är ny och X snabbare än förra.

Tegra 3 är betydligt äldre än A6X, men självklart vill du inte nämn sådant som inte är tillfördel för Apple.

Du kan ju alltid diskutera andra mer relevanta plattormar som finns/kommer finnas i Android världen tex eftersom Tegra 4 som Tråden handlar om aldrig kommer sitta i Apple produkter.

Permalänk
Medlem
Skrivet av leafbranch:

Eftersom Tegra 3 säljer otroligt bra och finns i otroligt många enheter, både i lägre prissatta telefoner och lite dyrare så ser jag inte att de misslyckats för sig själva.

Jag har inte sätt vad Tegra 4 går för än så jag ska inte nedvärdera det i förväg och ett GPU test att skryta med säger inte mycket om hur kompentent en SoC är. Det vet förhoppningsvis du med...

iPad4 är ju bara en mjölkprodukt som är framstressad, den kom omotiverat nära iPad 3 vilket visar att de bara tagit en lite snabbare SoC och säga att produkten är ny och X snabbare än förra.

Tegra 3 är betydligt äldre än A6X, men självklart vill du inte nämn sådant som inte är tillfördel för Apple.

Du kan ju alltid diskutera andra mer relevanta plattormar som finns/kommer finnas i Android världen tex eftersom Tegra 4 som Tråden handlar om aldrig kommer sitta i Apple produkter.

Jag har inte sagt att nVidia har misslyckats ekonomiskt, utan att prestandan är en besvikelse enligt mig.

Jag sågar inte heller Tegra 4 innan jag sett den utan konstaterar bara att en prestanda ökning på 6 gånger jämfört med Tegra 3 (nVidias ord) sannolikt inte räcker för att stå emot konkurrenterna kommande kretsar men det återstår att se.

Sen vet jag inte varför du skall blanda in iPad4 som produkt här? iPad 4 gjordes sannolikt i första hand för att uppdatera den med nya kontakten men SoC:en som är det intressanta i denna diskussion är ju på inget sätt framhastad, tvärt om.

Men det här är ingen diskussion om Apple. Det är inte Apple som designar GPUn för sina SoC utan det gör Imagination Technologies och det är fler än Apple som har licenser för att använda deras arkitekturer.

Att Tegra 3 är en äldre SoC än A6X är sant men sett till GPUn så var den långsammare än SGX 543MP2 (som satt i iPad2/A5:an) som hade funnits på marknaden bra länge innan Tegra 3 kom. Även ARMs Mali kretsar passerade snabbt Tegra 3 i GPU-prestanda.

Det är upp till bevis för nVidia att de kan leverera en krets som slåss med de andra GPU tillverkarna även i den strömsnåla-divisionen.

Permalänk
Medlem
Skrivet av leafbranch:

Eftersom Tegra 3 säljer otroligt bra och finns i otroligt många enheter, både i lägre prissatta telefoner och lite dyrare så ser jag inte att de misslyckats för sig själva.

Jag har inte sätt vad Tegra 4 går för än så jag ska inte nedvärdera det i förväg och ett GPU test att skryta med säger inte mycket om hur kompentent en SoC är. Det vet förhoppningsvis du med...

iPad4 är ju bara en mjölkprodukt som är framstressad, den kom omotiverat nära iPad 3 vilket visar att de bara tagit en lite snabbare SoC och säga att produkten är ny och X snabbare än förra.

Tegra 3 är betydligt äldre än A6X, men självklart vill du inte nämn sådant som inte är tillfördel för Apple.

Du kan ju alltid diskutera andra mer relevanta plattormar som finns/kommer finnas i Android världen tex eftersom Tegra 4 som Tråden handlar om aldrig kommer sitta i Apple produkter.

Nja det var Ipad 3 som var framstressad. Ipad 4 släpptes när de normalt släpper plattor.

Permalänk
Medlem
Skrivet av S_Z:

Jag har inte sagt att nVidia har misslyckats ekonomiskt, utan att prestandan är en besvikelse enligt mig.

Jag sågar inte heller Tegra 4 innan jag sett den utan konstaterar bara att en prestanda ökning på 6 gånger jämfört med Tegra 3 (nVidias ord) sannolikt inte räcker för att stå emot konkurrenterna kommande kretsar men det återstår att se.

Sen vet jag inte varför du skall blanda in iPad4 som produkt här? iPad 4 gjordes sannolikt i första hand för att uppdatera den med nya kontakten men SoC:en som är det intressanta i denna diskussion är ju på inget sätt framhastad, tvärt om.

Men det här är ingen diskussion om Apple. Det är inte Apple som designar GPUn för sina SoC utan det gör Imagination Technologies och det är fler än Apple som har licenser för att använda deras arkitekturer.

Att Tegra 3 är en äldre SoC än A6X är sant men sett till GPUn så var den långsammare än SGX 543MP2 (som satt i iPad2/A5:an) som hade funnits på marknaden bra länge innan Tegra 3 kom. Även ARMs Mali kretsar passerade snabbt Tegra 3 i GPU-prestanda.

Det är upp till bevis för nVidia att de kan leverera en krets som slåss med de andra GPU tillverkarna även i den strömsnåla-divisionen.

Jo, men en SoC innehåller ju så mycket mer än en GPU. Liksom det är ju helheten som presterar.
Jag själv tror inte heller Tegra 4 kommer vara något monster / toppen på isberget av GPU tester/ren spel prestanda inte ett långt tag men som helhet, som en bra presterande SoC och förhoppningsvis har dom väl avvägt prestanda/strömförsörjning/Värmeutveckling.

Skrivet av ozo64:

Nja det var Ipad 3 som var framstressad. Ipad 4 släpptes när de normalt släpper plattor.

Så kanske det är. Dock blev det ju i vilket fall tät period mellan dessa två produkter.

Permalänk
Avstängd

Tegra 4 mot Nexus 10.

Visa signatur

Drag and drop är uppfunnet, varför komplicera med mjukvara???
Dubbelmoral? Bättre att tiga och se dum ut än att öppna munnen och bevisa det. ;)

Permalänk
Medlem

Mer detaljer hos Anandtech: http://www.anandtech.com/show/6550/more-details-on-nvidias-te...

Två saker som jag anser är lite intressanta. Den femte CPU-kärnan i Tegra 4 är tydligen också en Cortex A15-kärna. Skall bli intressant att se hur strömsnål Tegra 4 är vid lätt arbete jämfört med ARMs egna "big.LITTLE"-system, där de kombinerar A15-kärnor ihop med en strömsnål A7-kärna. Undrar varför nVidia inte också valde en annan, strömsnålare och mindre kärna för sin +1 design.

Det andra är att Tegra 4 enligt Ananadtech fortfarande inte använder en "unified shader"-arkitektur. Om det stämmer känns det som GPU delen verkligen bara är en uppskalad version av den i Tegra 3, inte en ny arkitektur?

Skall bli intressant att läsa Anandtech djupanalys av Tegra 4

Permalänk
Medlem
Skrivet av S_Z:

Mer detaljer hos Anandtech: http://www.anandtech.com/show/6550/more-details-on-nvidias-te...

Två saker som jag anser är lite intressanta. Den femte CPU-kärnan i Tegra 4 är tydligen också en Cortex A15-kärna. Skall bli intressant att se hur strömsnål Tegra 4 är vid lätt arbete jämfört med ARMs egna "big.LITTLE"-system, där de kombinerar A15-kärnor ihop med en strömsnål A7-kärna. Undrar varför nVidia inte också valde en annan, strömsnålare och mindre kärna för sin +1 design.

Kanske för att det sparar ström marginellt och Cortex A15 kärnan jobbar effektivare och kan där med jobba på lägre klock än motsvarande A7 kärna.
Bara en tanke.. Det visar sig.