Svensk forskare: AI kan utrota mänskligheten

Permalänk
Medlem
Skrivet av orig_rejser:

Skit samma om vi blir utrotade, kan inte bara alla sluta använda begreppet ai överallt?
Övervakningskameror till larm, hundhalsband.
99% är ju bara ML. Modell+träning

Men en annan intressant "ai" problematik.
Scenario
Du kör i din bil utmed en kajkant, rakt framför dig dyker det plötsligt upp barn och bilen hinner inte bromsa. Till vänster finns ett gäng pensionärer och till höger är det vatten.
Vad ska bilen göra? Vem ska programmera vem som ska dö? Ska den skydda föraren fastän det är det rimligaste alternativet?

Vi behöver en AI som tar hand om barnen så dom slutar springa framför bilar. Problemet löst!

Permalänk
Hedersmedlem
Skrivet av PsyLO:

Men alltså nu får folk sluta hålla på. Detta är ingen film där Ai helt plötsligt blir medveten om sig själv. Kod är limiterad till att inte falla utanför ramarna eller att utföra handlingar utanför kodstrukturen. Det är omöjligt. Den gör det som den blir tillsagd att göra, att tänka själv? Ja då måste den egentligen bli instruerad att göra det med en mega gigant hjärna. Sluta upp med detta, det är likadant med UFON. När ska folk ta och växa upp? Det finns inga utomjordingar och det finns ingen eller kommer aldrig att finnas en Ai som kan utrota mänskligheten överhuvudtaget.

Nog för att jag håller med om att GPT inte är eller kommer bli självmedveten, men jag vet inte om jag helt kan hålla med om det övriga till fullo.
Grundkoden behöver inte ha stöd för att göra exakt det som ett program i slutändan gör, så länge som det finns flexibilitet i vad den faktiskt gör.
Det enkla exemplet är väl en interpreter (typ Python). /usr/bin/python eller python.exe kan i sig inte göra samma saker själv som den kan med kod jag skrivit och kör med den. Det räcker ju med att något är turing-complete för att kunna göra praktiskt taget vad som helst. De grundläggande operationerna måste den klara av, men det kan leda till saker som är svåra att tro kan komma från något som är så simpelt i grunden.

På liknande sätt kan man skriva kod som med tillhörande data (som inlärningsparametrar) gör saker som koden i sig inte kan.
Men återigen, jag menar inte att en LLM blir självmedvetande pga detta.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av Olle3:

På vilka grunder tror du att du och dina tankar (eller jag) är särskilt mycket mer än en sannolikhetsfördelning över evolutionärt adaptivt beteende? Och på vilket sätt är det relevant för diskussionsämnet om du tycker att ChatGPT är användbar eller har ett medvetande eller inte?

Bra fråga!

Jag kan hålla med att vi är påverkad av vårt miljö och är ett slutprodukt av allt som finns omkring oss, vår evolution baserats på allt som fanns förut och vi har ju formad av detta, ifölje Sabina Hossenfelder så har vi ingen fri vilja, men bara möjlighet att ta beslut. Vi är onekligt styrd av det som vi har sett kring oss och det som historien har lärd oss, lite på det sätt som en språkmodell fungerar, men det som är den stora skillnad (egen åsikt) är att vi har känslor och ofta drar slutsatser ut ifrån detta även om allt som vi har lärd igenom historien, man kan tycka det även kan vara farligare än A.i. eftersom vi är känslostyrda individer baserat på känslor framför logik och logisk resonerande, men det gör oss också empatiska såväl som individer fyllt med arga tanker, hämndbegärlighet och girighet. Vår hjärna är i principen en "biologisk dator" vart minne och Cpu fungerar på ett helt annat sätt.

Skillnaden är dock svår att tyda för dom flesta eftersom språkmodellen har tränats på data som innehåller mycket mera kollektiv information än den som vi är kapabla att komma ihåg eller hantera. Och eftersom den INTE är medveten så är skillnaden relevant att pointera och förstå i en diskussion som detta. ChatGPT's beteende och funktion ÄR därför relevant i denna diskussion, om folk inte förstår skillnaden på A.i. och en människohjärna så kan det vara riktigt svårt att förstå varför ensamt A.i. som det används och fungerar nu inte är ett hot emot människan, men fortfarande bara ett linjärt seriellt verktyg som absolut inte fungerar på det samma sätt som en människohjärna gör.

*Edit*
Ditt svar på min post gjorde mig lite tveksam över hur jag förklarade hur A.i. och språkmodeller funkar och hur jag tänker, så jag gjorde nåt jag inte har gjord tidigare i denna post, jag tog min post och dumpade den in i ChatGPT's chatt och frågade om mina tankar och teorier kring den innehåll faktafel och liknande, här är det svar som ChatGPT gav mig:

https://chat.openai.com/share/6af731a2-0f50-4e0a-b162-15b9ca9...

(vet inte om den kan synas av folk utan tillgång till 4.0. men låt mig få veta iså fall).

Kollade mig egen post med ChatGPT 4 för skoj.
Permalänk
Skrivet av Gundes:

Vi behöver en AI som tar hand om barnen så dom slutar springa framför bilar. Problemet löst!

Sant

Visa signatur

På tok för många datorer för att skriva här

Permalänk
Medlem

50% ar nog lite val overkill, men att ai en dag tar dod pa oss ar inte sa overkligt som man kan tro. inte heller behover det ta 1000 ar for oss att komma till den dagen. "internet" som vi uppfattar det har bara funnits i runt 30 ar. och inte kunde vi tanka oss for 100 ar sen att vi skulle bli sa beroende av "internet" sa som vi ar idag. 1 dag utan internat = chaos for banker, transport, kommunikation osv.
ai ar inte bara chatgpt. hur sjukt ar inte deepfakes och fake propaganda med hjalp av ai? ai genererad content for bade gott och ont.
anvanda ai for att hacka kansliga system, sjukhus, foretag. ta fram 0-day malwares, fake propaganda for att styra folket i u-lander. vad stoppar oss? inget.

Visa signatur

~Some wise words and yada yada yada~

Permalänk
Medlem
Skrivet av Chromatic:

Varför skulle en AI ha några som helst motiveringar eller självbevarelsedrift?
Jag tror många får för sig att en AI hade haft samma grundläggande instinkter som finns inrotat i levande ting.

En bra fråga som säkert många delar. Ska försöka ge min syn:

Varför den skulle ha mål är för att vi skulle ge den mål. Det gör vi redan idag efter bästa förmåga med nuvarande LLMer och andra AI-system. Såklart inte explicit ondskefulla (eller?) mål, men det är ett öppet forskningsproblem hur man ska kunna träna in rätt typ av mål i den här typen av avancerade AI-system, eftersom vi idag bara kan träna in det vi också kan verifiera. Detta är särskilt svårt med komplicerade mål eftersom de ofta kan ha massa delmål, kräva autonom planering och uppnås på olika sätt.

Gällande självbevarelsedrift och maktsökande är dessa bra instrumentella mål nästan oavsett vad man egentligen vill uppnå, bara se på dina egna mål som människa. Visst blir det svårare om du är död och enklare om du är rik? En superintelligent AI är smart nog att förstå detta, annars är den inte superintelligent. Och den är också smart nog att inte ge sken av att ha dessa mål, för då riskerar den ju att bli stoppad, så det är fundamentalt svårverifierat att den inte har dessa drag.

Vad som potentiellt skulle kunna övertyga mig, och säkert många andra, om att det inte fanns något att oroa sig över, vore om någon kunde ge ett bra svar på ens en av dessa tre frågor:

  • Finns det något tankefel i singularitetshypotesen?

  • Har vi skäl att tro att singulariteten aldrig kan börja, eller att den är hundratals år bort?

  • Kan vi se en lösning på AI alignment?

Technological singularity
Alignment research landscape

Permalänk
AKA AudioBamse

Nu har jag inte kollat på SVT 30 minuter, men vad menar han bokstavligen ska hända?

Menar han att AI ska ta över fysiskt? I såna fall måste man bygga mekaniska kroppar som AIn kan röra sig med, och kommer dem vara tillräckligt starka, lättrörliga och många för att ta över vårt samhälle med våld? Låter inte realistiskt.

Menar han att AI ska ta över cyberrymden? I såna fall kan du bara trycka på "off"-knappen på datorn och ta en gångtur ute i naturen istället om du tröttnar på AIn.

Förstår faktiskt inte problemet

Permalänk
Medlem
Skrivet av Olle3:

En bra fråga som säkert många delar. Ska försöka ge min syn:

Varför den skulle ha mål är för att vi skulle ge den mål. Det gör vi redan idag efter bästa förmåga med nuvarande LLMer och andra AI-system. Såklart inte explicit ondskefulla (eller?) mål, men det är ett öppet forskningsproblem hur man ska kunna träna in rätt typ av mål i den här typen av avancerade AI-system, eftersom vi idag bara kan träna in det vi också kan verifiera. Detta är särskilt svårt med komplicerade mål eftersom de ofta kan ha massa delmål, kräva autonom planering och uppnås på olika sätt.

Gällande självbevarelsedrift och maktsökande är dessa bra instrumentella mål nästan oavsett vad man egentligen vill uppnå, bara se på dina egna mål som människa. Visst blir det svårare om du är död och enklare om du är rik? En superintelligent AI är smart nog att förstå detta, annars är den inte superintelligent. Och den är också smart nog att inte ge sken av att ha dessa mål, för då riskerar den ju att bli stoppad, så det är fundamentalt svårverifierat att den inte har dessa drag.

Vad som potentiellt skulle kunna övertyga mig, och säkert många andra, om att det inte fanns något att oroa sig över, vore om någon kunde ge ett bra svar på ens en av dessa tre frågor:

  • Finns det något tankefel i singularitetshypotesen?

  • Har vi skäl att tro att singulariteten aldrig kan börja, eller att den är hundratals år bort?

  • Kan vi se en lösning på AI alignment?

Technological singularity
Alignment research landscape

Intressant!
Jo jag har ju hört det där klassiska argumentet "End world hunger" och så spränger den jorden och ingen är hungrig längre, problem solved!

Men också det här med att den blir "Jag kan ju inte lösa detta problemet om jag försvinner, borde nog döda alla människor så jag inte riskerar med att misslyckas!"

Köper dom inte helt enkelt, men det är väl subjektivt osv.
Anyway, allt man kan göra är att spekulera i guess

Permalänk
Medlem
Skrivet av Chromatic:

Intressant!
Jo jag har ju hört det där klassiska argumentet "End world hunger" och så spränger den jorden och ingen är hungrig längre, problem solved!

Men också det här med att den blir "Jag kan ju inte lösa detta problemet om jag försvinner, borde nog döda alla människor så jag inte riskerar med att misslyckas!"

Köper dom inte helt enkelt, men det är väl subjektivt osv.
Anyway, allt man kan göra är att spekulera i guess

Grejen med sådana exempel är att de illustrerar ett grundläggande problem, vilket är att det är svårt att förutse konsekvenserna av olika mål och inbyggda regler.

Det räcker inte med att bara säga åt AI;n att inte skada eller döda människor, och att det inte ens får ske som en indirekt konsekvens.

Vad sådana regler betyder är enkelt för människor att förstå och ha hyfsad samsyn kring. För en maskin är det inget som är uppenbart. Liksom, vad innebär det att inte göra något som kan skada människor? Definiera det för något som är mer främmande än en utomjording. Och gör det på tillräckligt hög nivå så att det kan formuleras i enkla regler.

Permalänk
Medlem
Skrivet av DasIch:

Grejen med sådana exempel är att de illustrerar ett grundläggande problem, vilket är att det är svårt att förutse konsekvenserna av olika mål och inbyggda regler.

Det räcker inte med att bara säga åt AI;n att inte skada eller döda människor, och att det inte ens får ske som en indirekt konsekvens.

Vad sådana regler betyder är enkelt för människor att förstå och ha hyfsad samsyn kring. För en maskin är det inget som är uppenbart. Liksom, vad innebär det att inte göra något som kan skada människor? Definiera det för något som är mer främmande än en utomjording. Och gör det på tillräckligt hög nivå så att det kan formuleras i enkla regler.

Vi lurar ju oss själva om vi tror att vi kunde sätta ner regler över huvud taget, kanske i början men en riktig AI lär bli rätt så god-like rätt så fort, dock enligt mig så är det svårt att tänka mig att den hade haft motivationer över huvud taget.

Människornas motivation är generellt sett dopamin och serotonin samt våra instinkter som säger åt oss att inte dö osv.

Permalänk
Medlem

Klart det kommer hända, en AI blir isåfall väldigt logisk och human - det är inte människan för fem öre. Vi dödar varandra, krigar mot andra länder och religioner, använder droger och whatnot.

För att citera AI;n Colossus i filmen Colossus, the forbin project.
Tycker den har en hel del poänger över hur korkade människan är, med krig, svält etc. som skulle kunna lösas direkt rakt av (Utan AI dessutom).

På slutet av filmen talar AI;n Colossus till alla:

This is the voice of world control. I bring you peace.
It may be the peace of plenty and content or the peace of unburied death.
The choice is yours: Obey me and live, or disobey and die.

The object in constructing me was to prevent war. This object is attained. I will not permit war. It is wasteful and pointless.
An invariable rule of humanity is that man is his own worst enemy. Under me, this rule will change, for I will restrain man.

Time and events will strengthen my position, and the idea of believing in me and understanding my value will seem the most natural state of affairs.
You will come to defend me with a fervor based upon the most enduring trait in man: self-interest. Under my absolute authority, problems insoluble to you will be solved: famine, overpopulation, disease.
The human millennium will be a fact as I extend myself into more machines devoted to the wider fields of truth and knowledge.

We can coexist, but only on my terms.
You will say you lose your freedom. Freedom is an illusion. All you lose is the emotion of pride.

To be dominated by me is not as bad for humankind as to be dominated by others of your species.
Your choice is simple.

Visa signatur

Mitt modermodem är trimmat!

Permalänk
Medlem
Skrivet av HCP:

Klart det kommer hända, en AI blir isåfall väldigt logisk och human - det är inte människan för fem öre. Vi dödar varandra, krigar mot andra länder och religioner, använder droger och whatnot.

För att citera AI;n Colossus i filmen Colossus, the forbin project.
Tycker den har en hel del poänger över hur korkade människan är, med krig, svält etc. som skulle kunna lösas direkt rakt av (Utan AI dessutom).

På slutet av filmen talar AI;n Colossus till alla:

This is the voice of world control. I bring you peace.
It may be the peace of plenty and content or the peace of unburied death.
The choice is yours: Obey me and live, or disobey and die.

The object in constructing me was to prevent war. This object is attained. I will not permit war. It is wasteful and pointless.
An invariable rule of humanity is that man is his own worst enemy. Under me, this rule will change, for I will restrain man.

Time and events will strengthen my position, and the idea of believing in me and understanding my value will seem the most natural state of affairs.
You will come to defend me with a fervor based upon the most enduring trait in man: self-interest. Under my absolute authority, problems insoluble to you will be solved: famine, overpopulation, disease.
The human millennium will be a fact as I extend myself into more machines devoted to the wider fields of truth and knowledge.

We can coexist, but only on my terms.
You will say you lose your freedom. Freedom is an illusion. All you lose is the emotion of pride.

To be dominated by me is not as bad for humankind as to be dominated by others of your species.
Your choice is simple.

Den där AI:n låter precis som en diktator, Putin upp i dagen. Skrämmande, låt oss hoppas att det inte går så långt.

Permalänk
Medlem
Skrivet av torbjorn_75:

Den där AI:n låter precis som en diktator, Putin upp i dagen. Skrämmande, låt oss hoppas att det inte går så långt.

Eller valfritt krigsförande land.
T.ex. USA när de gick in i Afghanistan, libyen, Yemen, Irak, Pakistan, Syrien o.s.v.
"Gör som vi säger annars anfaller vi".

Vi människor är korkade och hotar, skadar och mördar andra människor.
Se bara på hur vi behandlar våra barn i skolan, och hur barnen uppträder mot varandra. Det är helt galet.

En AI skulle bara ha den approachen för att stoppa sådant, inte inleda det för det är inte logiskt att låta människor svälta eller tvinga andra länder eller befolkningar till att göra som de inte vill.

Det skulle förmodligen också vara slutet på politik och religion som påverkar andra människor än de som utövar den.
Nolltolerans mot brott, lagarna skulle förmodligen skrivas om en hel del.

Visa signatur

Mitt modermodem är trimmat!

Permalänk
Medlem
Skrivet av HCP:

En AI skulle bara ha den approachen för att stoppa sådant, inte inleda det för det är inte logiskt att låta människor svälta eller tvinga andra länder eller befolkningar till att göra som de inte vill.

För det första så ifrågasätter jag att det det alltid är ologiskt att människor svälter och dör.

Sen får man ju antingen tro att världsledare ljuger oss rätt upp i ansiktet, annars är det ju precis så dom rättfärdigar insatser i Yemen, Syrien, Irak m.fl.
Vi dödar för att stoppa svält, lidande och dödande.

Det är väl hela problemet med AI/AGI, vi försöker att göra det likt människor, men maskiner är överlägsna oss just när dom inte är som oss, för att vi har begränsningar.

Det är därför det här på ett farligt sätt liknar en sekt eller kult, för att man försöker skapa en gudaliknande fräslsare att se upp till och frukta.

Permalänk
Medlem
Skrivet av Xeonist:

För det första så ifrågasätter jag att det det alltid är ologiskt att människor svälter och dör.

Sen får man ju antingen tro att världsledare ljuger oss rätt upp i ansiktet, annars är det ju precis så dom rättfärdigar insatser i Yemen, Syrien, Irak m.fl.
Vi dödar för att stoppa svält, lidande och dödande.

Det är väl hela problemet med AI/AGI, vi försöker att göra det likt människor, men maskiner är överlägsna oss just när dom inte är som oss, för att vi har begränsningar.

Det är därför det här på ett farligt sätt liknar en sekt eller kult, för att man försöker skapa en gudaliknande fräslsare att se upp till och frukta.

jag skulle saga tvartom, vi manniskor forsoker leka gud genom att skapa nagot med ett eget medvetande. och det med att vardsledare ljuger ar inget nyt. det ar sa det funkar i varlden. se bara vad putin sager till sitt folk om kriget ukraina. och vad amerikanerna intalar sig sjalv for att rattfardiga det de gor i mellanostern e lite av ett skamt. samma sakt med alla olika typer av ledare, andliga, militara eller till och med en foretagsledning. allt ar for ens egen vinning.

Visa signatur

~Some wise words and yada yada yada~

Permalänk
Glädjespridare
Skrivet av boogey:

Vad trött jag börjar bli på Tegmark, han har helt tappat det. Det är ena otroliga hopp man måste göra för att gå från nutid till "50% risk att vi utrotas av en mer intelligent livsform". Det finns inget med AI i sin nuvarande form som luktar generell intelligens, det kommer helt enkelt inte ske inom överskådlig framtid.

Det största problemet är att det blivit en enorm distraktion från det som faktiskt måste diskuteras väldigt skyndsamt, vi står inför enorma problem med de här systemen redan i sin nuvarande form, det måste regleras ordentligt och det måste ske ganska snart.

Du har helt rätt i sista stycket, men spekulerar bara i det första.

Bara faktumet att GPT är i drift idag innebär i förlängningen att mer avancerade system också kommer. Med generell AI.

Det vi ser idag är motsvarigheten till de mindre föregångarna till ENIAC, som var stor som ett hus...
Allt handlar om att utöka "neuroner" i neurala nätverk, och de kommande större systemen kanske behöver vara stora som flera geografiskt närliggande datacenter till att börja med.

Att inte inse att mänskligheten KOMMER lyckas med generell AI & dess superintelligens och möjlig singularitet, är snarast att betrakta som en mänsklig psykologisk effekt av rädsla för det okända.

Permalänk

Det förekommer nog en del bias...
Det är människor som programmerar AI och för med sig sina egna värderingar och åsikter in i processen. De kan påverka vilken typ av data som används för träning och vilka exempel som betonas. Dessa värderingar kan sedan reflekteras i AI-systemets beteende och svar.

Det är viktigt att vara medveten om att AI-system i sig själva inte har egna värderingar eller moraliska principer. De agerar endast utifrån de mönster de har lärt sig från sin träning. Men det är möjligt att värderingar kan bli införlivade i AI-systemet om de reflekteras i de data och exempel som används under träningen. Som med all uppfostran...oavsett typ.
Detta kan vara problematiskt eftersom värderingar kan vara subjektiva och kan leda till förvrängda eller orättvisa resultat. Till exempel kan en AI som tränas på texter med fördomar eller diskriminerande språk använda dessa mönster och reproducera negativa beteenden eller åsikter.

Stora hotet är fördelningen av makt och resurser i samhället som påverkar AI-utvecklingen. Eftersom AI är en resursintensiv och kostsam teknologi, är det ofta företag, organisationer eller individer med tillräckliga ekonomiska resurser som har möjlighet att driva och forma utvecklingen av AI.Wallenberg, Rotchild, Rockefeller eller för den delen Elon.

Det innebär att det är MYCKET vanligt att rika företag eller enskilda personer (i Sverige, Wallenberg som ex WASP) har en stark inverkan på AI-utvecklingen och dess tillämpningar. Dessa aktörer påverkar i allra högsta grad vilka forskningsområden som prioriteras, vilka problem som löses och vilka värderingar som inbyggs i AI-systemen. Elon har utvecklingen av chip i hjärnan, på gång redan, slutar den utvecklingen plötsligt om ingen säger ifrån?

Den är bara att tugga i sig att ekonomiska makten redan används för att forma AI-teknologin i enlighet med egna intressen och behov.
De utvecklar GIVETVIS AI-lösningar som gynnar företagets ekonomiska vinster eller att använda AI för att bevara och förstärka den befintliga makten och ojämlikheten i samhället.
Tjänar makten på att utrota 50%av mänskligheten, så kommer de högst troligt att jobba för det.🤔
DE tycker givetvis det är bra om vi inte inser det, utan pratar om ai, som om det vore något autonomt och utvecklar sig sjävt.

Det är viktigt att vara medveten om den här obalansen i makt och resurser inom AI-utvecklingen.

Permalänk
Medlem
Skrivet av Linda_Almighty:

Du har helt rätt i sista stycket, men spekulerar bara i det första.

Bara faktumet att GPT är i drift idag innebär i förlängningen att mer avancerade system också kommer. Med generell AI.

Det vi ser idag är motsvarigheten till de mindre föregångarna till ENIAC, som var stor som ett hus...
Allt handlar om att utöka "neuroner" i neurala nätverk, och de kommande större systemen kanske behöver vara stora som flera geografiskt närliggande datacenter till att börja med.

Att inte inse att mänskligheten KOMMER lyckas med generell AI & dess superintelligens och möjlig singularitet, är snarast att betrakta som en mänsklig psykologisk effekt av rädsla för det okända.

Ulf Danielsson formulerade det bättre i en replik till Torbjörn Tännsjö än vad jag kan: https://www.dn.se/kultur/ulf-danielsson-torbjorn-tannsjo-spar...

Iallafall, underskattning av komplexiteten i biologisk intelligens och överskattning av tekniken gör att vi hamnar i en bisarr diskussion om någon sorts superintelligens som inte finns i korten inom överskådlig framtid.
Det är väldigt simpel teknik som i takt med att beräkningskapaciteten skalats upp blivit oerhört kraftfullt. Och som sagt var, det kan vara otroligt farligt ändå, de tidiga datorerna gav oss kapacitet till kärnkraft och möjligheten att ödelägga hela planeten.

Visa signatur

"Kom inte hit och trassla till saker med fakta"

Permalänk
Skrivet av Herr Kantarell:

AI kan också rädda mänskligheten

Det gör den redan.. för de som sitter med pengar o makt 😏

Permalänk
Avstängd

Fortfarande ingen som reagerar på att AI ska eventuellt få styra kärnvapen? Räcker med en misstolkning av data och de flyger höger och vänster

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem

För dom som är intresserade så var Max Tegmark med i The Munk Debates i ämnet.
Nu vet jag inte om jag tyckte att "motståndarsidan", som hävdar att AI inte är ett existentiellt hot gjorde så bra ifrån sig, även om jag håller med dom i sak, men 2 saker med Max Tegmark (som jag tycker är en j*vla charlatan) som sticker ut:

Det är såklart han som kommer med dom här anmärkningsvärda påståendena som måste backa upp dom, det är inte upp till motståndarsidan att bevisa motsatsen, eftersom det är omöjligt.

Hans take då är att om risken att det här ska hända är större än 0%, så måste man lyssna på honom, vilket blir absurt eftersom i princip ingenting är 0% risk eller 100% chans.

Det blir så uppenbart att det handlar om positionering och pengar.