Nvidia lanserar kraftfull mobil processor

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av Kazutoyo
Själv så ser jag inte riktigt poängen med denna. Detta för jag inte ser någon anledning till att köpa en handdator. För energikrävande för att vara små smidiga mobiler som passar i fickan, och om man ska packa ner någonting så kan det lika gärna vara en 12"-13" bärbar.

Då den är så energisnål så skulle jag gärna se detta chip i en 12"-13" bärbar som kör Linux och använda den som energisnål chat/surf dator, men hur stor chans är det? Detta kommer bara användas på enheter med 3"-8" skärm och dem är helt ointressanta för mig.

Var den inte tänkt till pda'er och liknande? En PDA är väl rätt likvärdig med en mobiltelefon

Permalänk
Citat:

Ursprungligen inskrivet av Ang
Iofs är jag inte närheten kunnig nog om processorer för att kunna uttala mig, men min bild är att grafikkorten redan på slutet av 90-talet övergav 32-bitarstekniken och utvecklade processorer som använde sig av högre bitar, oehört mycket högre buss och rent allmänt mer avancerad teknik.

Medan grafikkorten tog tekniska framsteg så koncentrerade sig processortillverkarna på att klämma ut mer mhz istället. För att slutligen kom någon helt idiotisk person på iden på "dual core" som är helt ologiskt! Nu kommer "trippel", "quadro core" osv. Hoppas verkligen inte grafikkortstillverkarna får för sig samma ide inom den normala-marknaden.

Som många redan påpekat så är detta en lite en äpplen mot våffeljärn jämförelse. Grafikkort är mycket "sämre" (mer specialiserade är ett bättre ord) än cpu:er om man ska resonera enligt dessa kriterier. Antalet bitar hör egentligen inte alls hit heller (vare sig det är fysisk adressrymd eller registerstorlek).

GPU:er är specialiserade för något som oftast brukar kallas dataparallella beräkningar. Det betyder att man utför samma (ofta väldigt oberoende) beräkningar på alla element i en stor mängd data. Dessa beräkningar är väldigt lätta att göra parallelt, dela bara ut datan jämt till olika enheter och kör. Därför är grafikkort byggda med en enorm mängd simpla beräkningsenheter och det är därför de kan vara så otroligt snabba på dessa bräkningar. Däremot är de fruktansvärt dåliga på allt som inte är just dataparallela beräkningar eftersom de offrat både klockfrekvens, instruktionsfördröjning och komplexitet på kontrollenheter för att kunna få plats med så mycket beräkningsresurser som möjligt på varje chip.

Jag tror du förstår problemet med detta rätt bra eftersom du ogillar multicore. Du skulle väl inte direkt vilja ha 128st 286kärnor på 500MHz i din dator? Även om varje kärna hade en modern SSE flyttalsenhet motsvarande den i Core2 arkitekturen är det ju uppenbart att de inte skulle prestera så bra på många saker.

Så jag skulle vilja hävda motsatsen. Det är GPU:er som gått den enkla vägen. Att klämma in mer och mer exekveringsresurser är en bit av kaka. Ctrl-C, Ctrl-V behärskar de flesta ingengörer. Dock ska det inte heller ses ned på detta. För rätt problem är det ju överlägset effektivast. Dessutom blir ju grafikkorten mer och mer flexibla. Från att i princip vara fixfunktions enheter (utför alltid y = x^2 eller liknande), till att idag mer eller mindre vara fristående kärnor med eget programflöde. Men att säga att GPU:er i allmänhet innehåller mer avancerad teknik än dagens processorer är ju lite att ta i kan man väl säga...

Visa signatur

/Hej hopp!