Frågan om fri vilja är förvisso intressant, men är den relevant för diskussionen? Den behöver inte vara det. Dessutom under "rådande teorier" som nämdes förut, så har kvantmekaniken mycket lite eller inget alls att göra med hur hjärnan fungerar och är beskaffad. Givetvis vilar allt i någon mening på fysikens innersta grund, men samtidigt, att åberopa kvantmekanik är att sätta en felaktig referensnivå. Vi skulle, hypotetiskt, kunna förklara andra världskriget med kvantmekanik men speciellt givande skulle det inte bli. Den underliggande fysiken är också ytterst lätt att missförstå vad slumpen beträffar. Å ena sidan talar vi faktiskt om en riktig slump, å andra sidan finns det fortfarande deteministiska förlopp om vi bara höjer abstrationsnivån en liten aning. Kvantfenomen, så den kan observeras makroskopiskt, sker under mycket speciella förhållanden. Förhållanden som inte alls påminner om de förhållanden som råder i hjärnan.
Vidare finns två viktiga observationer, sins emellan olika, men två sidor av samma sak. Det ena är huruvida det är meningsfullt att alls tala om determinism eller dess motsats. Vi behöver bara införliva en ytterst liten bråkdel av universum (mycket mindre än en hjärna) för att beräkningar av alla framtida tillstånd skulle kräva en ideal dator som håller fler minnesceller än partiklar i universum. Således finns en fullt rimlig praktiskt gräns där vi kan tala om icke-determinism. Inte ens universum vet hur det kommer att se ut i morgon (eller om några attosekunder), helt oavsätt om vi har en fullständig determinism eller ej.
Den andra observationen är frågan om varför vi över huvud taget har datorer. Skulle det vara sant att de bara "gör vad vi säger åt dem" eller liknande ytligheter, hade vi inte behövt några datorer alls, eftersom svaren hade varit givna. I själva verket skapar många algoritmer helt oförutsedda resultat, helt oväntade utdata och helt nya svar på gamla frågor. Ändå kan vi med säkerhet säga att datorer är fullt deterministiska, åtminstone så länge vi inte har en hypotetisk oändlig minnesmängd, vilket vi inte har (och kommer aldrig att få). Vidare; om hjärnor av okänd anledning skulle inkorporera något sorts äkta slump så har vi givetvis inte något skäl att anta att detta skulle vara för hjärnor allena. Vi kan väl nyttja samma princip i datorer? Till skillnad från hjärnor, så använder man ibland äkta (eller "tämligen" äkta) slump som input till datorer (via radioaktivt sönderfall, etc). Noteras kan förstås, att alla som "tittar" på datorns svar givetvis även de "exponeras" för äkta slump. Vi kan alltså införa icke-determinism i våra system (apparat, människa, etc), godtyckligt, även om det inte på något sätt finns inbyggda förmågor härav. Vi kan alltså se att vi troligen helt kan plocka bort frågan om determinism vad "hjärna vs dator" beträffar. En hållning man kan ta är att emedan fenomenens natur strängt taget är deterministiskt, kan vi på goda grunder se det icke-determinstiskt i praktiken. Vem som skapat datorer (vi), som intelligenta varelser, är inte heller något av vikt. Stendumma system kan ge upphov till prylar av närmast godtycklig komplexitet, och det har inte behövts någon eftertanke, kunskap eller intelligens för att skapa oss. (Det vore lite väl off-topic att börja argumentera mot pseudovetenskaper som ID och kreationism i denna forumdel [eller någon forumdel], och observera att jag säger behövts. Det är inte samma sak som "inte finns" eller "finns").
Datorer är mer än summan av dess delar på ungefär samma sätt som hjärnor. Att de "bara gör vad vi säger åt dem" är på många sätt fel. Du kan ha kunskaper i säg programmering, samtidigt som du helt fatalt saknar de kunskaper som skulle behövas för att göra datorns jobb. Bra schackprogram, t.ex, behöver inte göras av bra schackspelare. Programmeraren - vare sig denne är en naturbegåvning eller ej - som inte kan ett smack schack kan ändå bokstavligen läsa reglerna för spelet, och skapa ett program som slår programeraren med god mariginal. I detta fall blir det ju människan som bara slaviskt följt instruktioner! Hon kan ej heller i vårt minne (närminne åtminstone) hålla och följa datorns momentana tillstånd. Det visar sig dessutom finnas inbyggda problem i att förutsäga vissa typer av tillstånd, utan att kallt räkna fram dessa. När schackprogrammet körs, gör människan ej heller något att justera dess beteende (utom möjligen när man debuggar).
Allt vad vi kan se i hjärnan tyder ju också på en följsamhet av fysikens lagar. Dessa lagar kan beskrivas på valfritt sätt och vi kan ofta hitta närmast exakta analogier. Om en neurons 'firing rate' är summan av dess mottagna signaler så är det inte helt väsensskilt från att en hink kan fyllas med vatten från andra hinkar, eller en digital (eller analog) adderare kan lägga ihop. Jag behöver knappast påpeka att neuroner gör bra mycket mer än att bara momentant svara på input.
Topicfrågan är ju ytterst vag, men å andra sidan ser jag inte hur den kan göras mer precis än så. Till att börja med kan man ju säga att en dator som är lika bra som vår hjärna är fullkomligt omotiverad. Vad fasiken ska vi med en sådan till annat än som freakshow? Vi kan däremot alltid hitta problem som vilken miniräknare löser bättre än vi (addition, t.ex). Vi kan hitta lite mer komplexa problem där datorn bräcker oss. Schack, och andra spel t.ex. Vi kan också alltid hitta problem som ingen dator alls kan lösa, och inte kommer kunna lösa utan "svåra paradigmskiften", men som en människa löser lätt. Sedan har vi massvis med problem där datorn är sämre än oss, men vi kan se hur den kommer i kapp.
Mycket av hur datorn ska begripa mer handlar inte så mycket om teknik, som det handlar om att förstå hjärnan. Vi vet rätt mycket här, en del menar tillochmed att det enda som behövs är att vi på ett bra sätt strukturerar upp de faka vi redan har framför oss. Detta "enda" kan, och är förmodligen, svårare än vi tror, ändå.
Men mer på ett principiellt plan, finns det inget som tyder på att vi inte kan begagna oss av de mekanismer som hjärnar arbetar utefter för att bygga en maskin (som inte nödvändigtvis måste vara en "dator") som tänker. Det finns heller inga principella skäl till varför vi inte skulle bygga "smarta, medvetna, intelligenta, whatever" maskiner, vars funktion sedan kan hjälpa oss att förså hjärnan.
Det finns en uppsjö av filosofiska idéer i och kring detta. Vi har turingtester (och turingmaskiner, som är en lite annan sak), kinesiska rum, ANNs, trosfrågor, semantik, Gödel och en hel del annat. Mycket är intressant för egen del, men man ska nog inte skämmas för den enklaste av alla idéer: Det fungerar uppenbarligen i hjärnor... DNA är rätt enkelt (det kan man få på fan för att säga), och ritningar och algoritmer är också rätt enkla. Ändå kan båda (främst DNA, givetvis) när de "körs" ge upphov till de alla märkligaste ting. Båda är i sig fullt deterministiska, men båda kan påverkas utifrån av deterministiska-men-så-obcent-komplexa-att-det-inte-tjänar-något-till-input av valfri sort.
Vi har ju också med att göra frågan om hur vi ska tolka ett beteende. Enligt talsesättet är rävar just listiga, och visst är det väl så. Men man kan hävda (det gör inte jag) att rävar endast är "automater" som vi intolkar ett visst tänkande beteende i. Vi kan ju också välja att enbart se sig själv som medveten. Hur kan man verifiera att den man talar med verkligen är medveten? Det kan man inte, i sak, i princip. Det krävs pragmatism för att mena att medmänniskan är vid medvetande. Vi kan också välja att tolka varenda antydning till "listighet" som medveten och tänkande. Då har vi nått den andra extremen (samt lämnat det pragmatiska), där såväl bakterier som vatten är 'listigt' (eller medvetet). Utmynnar i flum, är ju vad de båda extremerna gör.
Rent praktiskt, så handlar ju tråden om AI. En halvdan definition på AI är "att få maskiner att göra det som maskiner är dåligt på", alternativt "få maskiner att göra det hjärnor är bra på". Här kan man ju lyckas i varierande grad. Rent allmänt (oavsätt om det är AI eller något helt annat problemområde) så försöker man ju dela upp ett komplext problem i flera små problem av lägre komplexitetsgrad. Har man tur, kan man dela upp problemet i enskilda operationer (flytta, addition, stoppa in degen i ugnen). Även ett till synes icke-deterministiskt fenomen, som att baka en kaka, kan delas upp i mindre problem av mer deterministisk natur. Idealet för AI (eller vad som helst) är att bryta ner problemet i enskilda logiska steg. Oftast har man ju inte det, och får sitta med en hög halvkomplexa problem i stället. Ett annat sätt är att göra "modeller" och pröva dessa. På sådant sätt arbetar man sig i stället "uppåt". Man vill helt enkelt se om en viss ordning av små, enkla steg, kan leda till mer komplexa mönster och egenheter (obserera att detta helt är en generellt resonamang som alls inte bara har med AI att göra). Ett sätt att arbeta sig nedåt är att använda statisik. Har vi enkla statistiska regler kan vi med rätt stor prestanda "köra" dessa för att få något "intelligent" (i ordet allra vidaste bemärkelse) gjort. I AI använder man ibland något som vi redan nämt tidigare i tråden, ANN, eller artificiella neurala nätverk. Det är ett sätt att testa modeller. Syftet är att studera inlärningsprocesser, mönsterigenkänning och liknande. Antingen kan man "bygga ett ANN" och använda det. Prestandan är oftast låg, och vanligen använder man bara något tiotal noder eller "nervceller" som får lära sig ur en datamängd. Enkelt uttryckt består neurala nätverk av ett antal noder som är kopplade till varandra. Varje koppling har ett värde, och varje nod gör något mycket enkelt (oftast diskriminering mellan två värdenivåer). I ett lager av "input-noder" ges en mängd data, som varje inputnod skickar till nästa 'lager'. Varje gång en koppling är aktiv mellan två noder förstärks denna. Varje nod är kopplad till samtliga noder i nästa lager. Nätverket "lär sig" genom att ombalansera värdet på varje koppling. Ett "output-lager" (oftas bara ett fåtal noder) ger utdata. Neurala nätverk är väldigt primitiva, och namnet till trots så ska man inte tro att en "nod" har samma komplexitetsgrad som en nervcell. Sak samma, så kan man göra en del saker med dessa nätverk. Antal noder är oftast pyttelitet, och prestandan är låg eftersom vi hela tiden måste itera över varje nod och koppling. Har man väl fått ett nätverk att göra det man ska, så kan man extrahera varje litet värde ur det, och bygga upp en mer statisk implementation (som inte längre är ett nätverk), och på så vis få högre prestanda. Man kan säga att ANN är en genväg för att bryta upp ett pseudo-icke-deterministiskt system till klart definierbara logiska steg.
Vicotnik skrev något bra:
Citat:
Ursprungligen inskrivet av Vicotnik
...För att denna tråd inte ska bli rent filosofisk och helt ÖÄ kanske vi kan tolka AI som den "nuvarnade" AIn, alltså som Alice t.ex. som kanske kan luras lite men som knappast anses vara en intelligens.
Just detta att "luras lite" är ju ett sådan oförutsägbart fenomen som jag berörde tidigare. Vi kan på fem röda plocka ner Alice, och se att "hon" inte är en riktig människa, eller i närheten av en sådan när det beträffar kognitiva förmågor. Men det är just "luras lite" som i sammanhanget är viktigt. Detta är AI idag. Vanligen kallar man detta, utan undantag, för weak AI, alltså 'svag AI'. Om vi kallar alla ansatser till "få maskiner att göra det som maskiner är dåligt på" för AI, ja, då har vi ju "AI" idag. Weak sådan. Dess SciFi-motsvarighet är "stong AI", alltså stark AI. Något sådan finns inte idag, och vi vet inte om vi någonsin kan nå dit (eller om det är önskvärt, etc). Fast om vi bara ska diskutera dagens AI, så blir ju tråden bara ett enda "jaha?". Vi har ju småapplikationer och vissa kommersiella produkter som innehåller "AI" på ett eller annat sätt (ibland innehåller de inte AI i sig, utan ANN. Eller varken ANN eller AI, fast ett beteende som man kan intolka någon sort dumhet i! Och vad är väl dumhet, om inte ett tecken på intelligens? ). Trådfrågan rörde ju snarare ett "när" än ett "om". Eller rättare sagt: Hur mycket?
Om vi lämnar allt vad AI och filosofi därhän, och bara tänker oss en rent reduktionistisk syn på hjärnan och vad som krävs för att emulera denna, hur många Opertion behöver vi då? Vet ej, men vi kan ju hitta på ett extremfall: Ponera att en enda nervcell är så komplex (alternativt måste simlueras på en så låg nivå) att det behövs en Operton för varje. Då behöver vi i runda slängar datorkraft "för" hundra miljarder Operton! Vi kan förmodligen reducera antalet, eftersom vi bara är intresserade av de högre funktionerna och inte kroppskontroll, men antalet blir ändå abnormt stort. Om vi sedan antar en mycket liberal definition av Moores lag, och säger att prestandan (i stället för integrationen) fördubblas vartannat år (vi avrundar 18 månader). Hur många år måste vi vänta? Det är enkelt att räkna ut: 2^(2År) = 100 000 000 000, eller År/2 = log2(100 000 000 000). 74 år.
74 år? Tja, det är inte speciellt länge, faktiskt. En viss andel av dagens Sweclockare kommer säkert vara vid liv år 2080. Behöver jag säga att beräkningar av detta slag är rätt töntiga? Antalet felkällor är ju enormt, bara det ogenerade kring Moores lag...
Det kan lika gärna ta en miljon år, eller tills Solen blir nova, och Jorden är slut som livsuppehållande planet för länge sedan. Eller så kommer genombrottet på måndag. Min magkänsla säger dock två saker: Vi får vänta mycket längre än 74 år samtidigt som antalet Operton som behövs blir betydligt mindre. Vi måste bara ta reda på mer i detalj vad vi vill åstakomma. Brute-force är väl knappast framgången för intelligens, medvetande och jag? (Fast samtidigt är det ju just så man gör för schackspel, t.ex. Åtminstone tror vi att datorn beräknar fler drag, med mindre elegans, än människan.)
Pudeln: Att vetenskapen är som Newton-Raphson är inte dumt alls. Jag brukar just säga det, att vetenskapen fortskrider med "successiv approximation". Kopplingar till Babels torn eller liknande är dock missvisande; man kan vara helt på det klara med hur vetenskap fungerar utan att ta till religion!
Edit...
Citat:
Ursprungligen inskrivet av NN
Hur bra AI en dator än har, är det alltid än människa som gjort den.
En dator kan bara bli snabbare än människor om man säger åt den att göra något. Utan instruktioner stannar den, och den kan inte ha "sunt förnuft" som en människa har, på så många områden.
Du skulle behöva programmera datorn för att möta alla situationer den kan tänkas möta.
Jaså? Vad sägs om algotitmen: "Pröva dig fram, randomiserat. Memorera önskade utfall. Memorera direkt skadliga utfall. Fortsätt randomiserat, med en statistisk övervikt av handlingar som ledde till önskat utfall, GOTO 10".
Det är inte människan som ser till att datorn har ett konstant flöde av instruktioner. Alla som kan pyttelite om programmering vet det. Att programmera datorn för att "möta alla situationer den kan tänkas möta" är ju dumt, enormt slösaktigt, och fel. Ingen programmerare kan förutsäga alla "situationer" som ett helt vanlig icke-AI-relaterad program råkar ut för, och ingen god programmerare hårdkodar in massa strunt. Ovan nämda algoritm är givetvis på en väldigt hög nivå med höggradig komplexitet, men kan problem-specifikt brytas ner till små logiska steg. Observera att detta inte är något argument för strong AI (eller AI ö.h.t.) utan bara en tillrättavisning om tekniker för att få en dator att göra något nyttigt.