Inte direkt, lite för gammal för det, var ung under Spectrum 48/C=64/Atari ST/Amiga tiden (har haft alla)
Men har studerat bl.a. datorvetenskap och jobbar med att optimera programvara för multicore system, så har hyfsat koll på hur pass svårt det är att effektivt utnyttja många CPU-kärnor för att accelerera ett och samma problem (vilket är den typ av problem jag arbetar med). På servers är det mycket enklare att utnyttja många CPU-kärnor då olika förfrågningar är relativt oberoende och kan därför effektivt hanteras på olika CPU kärnor.
Därför gillar jag att Intel fortfarande jobbar väldigt hårt på att maximera prestanda per tråd. De säger själv att de först och främst tillverkar ett desktop-chip. Att gå väldigt brett är interessant, men idag är en sådan design bara vettig på servers. Desktop-programvara är notoriskt dåligt på att utnyttja flera CPU kärnor och programvara på mobilia enheter är om möjligt ännu sämre.
Men alla vet att det inte går att skala upp klockfrekvensen speciellt mycket mer än vad vi har idag, så alla kommer vara tvungen att skala antalet kärnor. Det jag vänder mig mot i nVidia fallet är att 8 kärnor känns rätt meningslöst om tidsplanen för detta chip är att finns på marknaden om 2-3 år. Finns inte en chans att programvaran på mobiler hinner förändras så fort.
Ska man säga något positivt så är det väl kul att någon går i bräschen för mobila chip! Men det finns ju andra symmetriska chip redan idag med 32 CPU-kärnor (från t.ex. Cavium Networks) och ända upp till 100 CPU-kärnor om man kan leva med ett asymmetriskt chip (Tilera) eller 40 kärnor/80-trådar (4 st Intel Westmere EX, 10 kärnor per CPU). Så de som forskar och utvecklar programvara för parallela system står och faller inte precis med ett 8-kärnors chip från nVidia...