Intel demonstrerar Larrabee

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Neco
Jag ser hellre realistiska fysikmotorer i framtiden än perfekt bildkvalitet... eller rent allmänt allt sånt som inte är relaterat till bildkvalitet, det om något är det enklaste att förbättra egentligen, ge mig en riktig AI som inte är en pappskalle istället...

Helt sant! Grafiken e ju fina fisken just nu, visst vore det ballt med raytracing å allt annat tjafs men som du säger AI och Fysik är fan så mkt viktigare IMO

EDIT: Typ med dagens flerkärniga burkar, borde dom inte kunna fixa så att 1-2 cpuar bara arbetar med AI och mer verklighets troget beteende hos djur och människor? Herregud vilka underbara Rollspel det skulle bli då :drool:

Visa signatur

Linux Manjaro XFCE på en MacBook Pro late 2013, gammal slö Asus X202E, Nintedo Switch, gamla Huawei 20Pro

Intel är apartheid

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av hobs0n
EDIT: Typ med dagens flerkärniga burkar, borde dom inte kunna fixa så att 1-2 cpuar bara arbetar med AI och mer verklighets troget beteende hos djur och människor? Herregud vilka underbara Rollspel det skulle bli då :drool:

Problemet är bara att det är lättare sagt än gjort.

Datorkraften är en faktor, men den svåra biten är att emulera ett sådant beteenden överhuvudtaget.

Det hjälper inte att man sitter på en IBM Roadrunner när man inte kan skriva ett sådant "tänkande" program.

Mänskligt beteende är ett hett område inom AI-forskning. Men så länge som man inte kan skapa ett program som klarar av att resonera som oss så kommer AI-n också att kännas "falsk". Jag tycker själv att man först åtminstonde måste kunna skapa något som passerar Turing-testet innan man kan skapa ett RPG som verkligen kan kallas för ett RPG där man kan leva sig in i. Kommunkation med NPC-n är trots allt A och O.

Visa signatur

"Nothing is impossible because impossible itself says I M Possible..."

Permalänk
Medlem

Jag tycker dagens AI är vettigare än de flesta människor man stöter på online.

Visa signatur

//Bacon

Permalänk
Medlem

Realtids GI. Jag har drömt om det i flera år och nu kanske det äntligen är på väg? De kommande åren kommer bli väldigt intressanta...

Men jag tänker ändå aldrig köpa något som det står Intel på.

Visa signatur

CPU: AMD Ryzen 7 7800X3D CO + 2133 MHz FCLK GPU: Sapphire RX 7900 XT Pulse OC
RAM: Corsair 2x16GB 6000 MT/s CL30 (Hynix) BZ subtimings
MB: ASUS ROG Strix B650E-F Gaming WIFI SSD: Kingston KC3000 2TB PSU: Corsair RM850x

Permalänk
Medlem

Måste hålla med ett antal av tidigare talare: Raytracing i den upplösningen är fan bra gjort. Även om det rör som om 20 fps!

Mycket talar om att larrabee kommer vara ett ytterst mångsidigt kort, och enligt min uppfattning borde klassas som en renodlad gpgpu snarare än ett grafikkort. Inte illa att sitta inne med ett cluster på sin pci-e port

Ang. att dedikera kärnor till en viss uppgift behöver inte vara den mest optimala lösningen. Som nämnt tidigare så är det inte det lättaste att skriva för flera trådar, men även om man nu är en klippa på det så måste man komma ihåg att alla kärnor är lika kapabla. Inte som på en arbetsplats där vissa personer är specialister på en sak, men klarar en annan hjälpligt, och därför bör fokusera på sin specialité. En mångsidig kärna som klarar alla uppgifter precis lika bra som sina "kollegor" bör därför inte bara stå och vänta på sin dedikerade uppgift, då detta innebär att du har en kärna som står sysslolös när den istället kunde cruncha en annan uppgift, och där igenom får systemet gjort mer på kortare tid.

Hoppas att mitt inlägg var begripligt. (annars så är det fritt fram för de som förstår att förtydliga för de som inte gör det.)

EDIT: grammatik & stavfel.

Visa signatur

The most ULF of them all.

Permalänk
Hjälpsam

Skulle vara kul om dom kom med en budget-Larrabee som man kunde använda lite som en extraprocessor, men lät en behålla sitt ordinarie grafikkort.

Finns lite lösa rykten om att GT300 skulle vara något åt det här hållet också.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Weeblie
Problemet är bara att det är lättare sagt än gjort.

Datorkraften är en faktor, men den svåra biten är att emulera ett sådant beteenden överhuvudtaget.

Det hjälper inte att man sitter på en IBM Roadrunner när man inte kan skriva ett sådant "tänkande" program.

Mänskligt beteende är ett hett område inom AI-forskning. Men så länge som man inte kan skapa ett program som klarar av att resonera som oss så kommer AI-n också att kännas "falsk". Jag tycker själv att man först åtminstonde måste kunna skapa något som passerar Turing-testet innan man kan skapa ett RPG som verkligen kan kallas för ett RPG där man kan leva sig in i. Kommunkation med NPC-n är trots allt A och O.

Mjo klart jag vet att det är knepigt men det jag menade var att det känns som att det mesta av kraften idag går åt att få bra grafik. Känns som AIn i spel är väldigt under prioriterad men det kanske inte är så och som du säger, mänskliga hjärnan är ju ett fantastikt mongo som är något svår att emulera

Citat:

Ursprungligen inskrivet av Bacon
Jag tycker dagens AI är vettigare än de flesta människor man stöter på online.

Hehe delvis rätt där

Visa signatur

Linux Manjaro XFCE på en MacBook Pro late 2013, gammal slö Asus X202E, Nintedo Switch, gamla Huawei 20Pro

Intel är apartheid

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av hobs0n
Mjo klart jag vet att det är knepigt men det jag menade var att det känns som att det mesta av kraften idag går åt att få bra grafik. Känns som AIn i spel är väldigt under prioriterad men det kanske inte är så och som du säger....

Stämmer helt klart. AI är inte prioriterat. Ett bra exempel på det är Empire: Total War som har väldigt snygg grafik, men AI:n är kass. Det släpptes i mars, och först med v1.4 kanske AI:n kan göra naval invasions.

Permalänk
Medlem

AI-n är underprioriterad eftersom det är avsevärt mycket svårare att göra en bra AI än att fylla på med grafik.

Att skapa ett system som t.ex. det populära SpeedTree (används i många, många spel, där Oblivion är ett av dem) är i många avseenden "enkelt" om du bara har en tillräckligt stor budget.

Datastrukturerna och algoritmerna som du måste använda dig av existerar redan. Du behöver bara slänga pengar på folk för att skriva själva koden så löser det sig. Folk som kan rita texturerna och 3D-modellera träden kan lätt köpas. Riskerna är inte nämnvärt större än för andra mjukvaruprojekt.

Smart AI är däremot ett högrisksprojekt och lutar mer åt mjukvaruforskning än mjukvaruutveckling.

Oblivion's AI räknas som en av dem absolut mest komplexa som finns, men personligen tycker jag inte att det är något super-spännande med den ändå, eftersom den fundementalt saknar biten som vanligt folk kan: Kommunkation.

Även för mindre komplexa spel än RPGs, säg RTSs, så har du fortfarande samma problem med att få datorn att kunna "tänka".

Finita Automater är absolut enklast och absolut vanligast eftersom det oftast också visar sig vara bäst. Men det kan inte på något sätt räknas som "intelligent" utan är endast så bra som vad programmaren har gjort den. Genetiska Algoritmer för att förbättra FA ger AI-n en viss förmåga att adaptera till ändrade situationer men fortfarande är det långt ifrån vad man kan klassa som en "smart" AI; d.v.s. att den på egen hand kan hitta på något helt revolutionerande attack-metod.

Neurala Nätverk är från ett teoretiskt perspektiv "jättecoola" och lösningen på allt och inget, men visar sig tyvärr i praktiken var alltför svåra att applicera på större problem och är extraordinärt svåra för programmerarna att visualisera. I princip så har man att om det fungerar så vet man inte varför det fungerar.

Robocode är ett av mina favorit-"spel" där bottar tävlar mot bottar. Man ser där klart och tydligt att top-bottarna använder sig enbart marginellt av "intelligenta metoder" som NN och att det som ger mest effekt är dem "förprogrammerade strategierna" - något som för en människa kan vara helt uppenbar (p.g.a. spelets natur med behovet av att kunna "sikta exakt" så tror jag dock inte att en människa är bättre än AI-n).

Och det är där som det svåra visar sig för vanliga spel; om datorn rushar dig med zerglins för den 35-te gången så tror jag inte att du längre klassar den som "smart".

Visa signatur

"Nothing is impossible because impossible itself says I M Possible..."

Permalänk
Medlem

Jag tycker att Larrabee verkar mycket intressant. Framför allt tycker jag att Larrabee är ett mycket intressant alternativ till GPGPU-lösningar såsom CUDA.

Larrabee består av ungefär 16-48 cores, som vardera kan exekvera vanlig x86-kod (långsamt) ... ELLER på vektorer. Dessa vektorer behöver inte bara bestå av floats, utan har även fullt stöd för 64-bitars doubles. Visst har exempelvis nVidia Tesla stöd för dubbel precision, men den är ungefär 10 ggr långsammare på det än på enkelt precision.

Hoppas att trådmodellen blir bra. Om jag har förstått det hela rätt så ska det gå att snabbt spawna hårdvaru-trådar på Larrabee utan att operativsystemet behöver vara med i leken? Det skulle i såna fall vara något av en killer för det jag håller på med på jobbet (kod som gör många uppgifter, men som var för sig bara går att parallellisera upp till en viss gräns, inte de tusentals tasks som behövs för att utnyttja en GPU effektivt).

Permalänk

Men kommer intel att ta över marknaden för grafikkort i framtiden?

Visa signatur

Balle