Rösta fram din favoritbakgrundsbild!

Stor AI-upptäckt påstås ligga bakom Open AI-konflikten

Permalänk
Medlem
Skrivet av grasklippare:

Javisst, AI:n är en klurig och påhittig rackare! Fast mer kanske då att den tänker ut sätt att ändra och modifiera sig själv för att kunna utnyttja all befintlig hårdvara och hantera energibegränsningar.

Varför skulle den göra det då? 🙂

Permalänk
Medlem
Skrivet av Mindfighter:

Killgissning från mig är att de lyckats skapa ett program som de upplevde som självmedvetet.

Ingen AI-doomer oroar sig för självmedvetenhet. Självmedvetenhet är en icke-fråga. Om något så vore det värre ifall en riktigt smart och kapabel AI är omedveten, för om en gem-maximerare (för att ta det klassiska exemplet) lyckas kan det betyda att ingen någonsin mer kommer att uppleva något i universums historia.

Skrivet av Klarspråkarn:

Jepp. "Utplåna mänskligheten" är så extremt överdrivet. Rätt enkelt att stoppa en verklig AI som kräver så ofantligt mycket energi: Stoppa elproduktionen i en dag och koppla bort kablar.

Det är enkelt just nu. Det är inte enkelt i en möjlig framtid där vi lurats att tro att en AGI är "aligned" och därför integrerat den i samhället på olika vis (just för att den är så användbar för att lösa svåra problem effektivt), eller där någon skurkstat eller enskild terroristgrupp får tillgång till AGI.

Skrivet av freethinker:

Tror personligen inte ett AGI skulle bestämma sig för att utplåna männskligheten för vi kan vara ett hot. Det är ett mänskligt synsätt.

Här vill jag uppmärksamma folk på begreppet "instrumentell konvergens".

Folk är inte oroliga för att AI plötsligt kommer få ett medvetande eller hitta på en massa egna mål. Det folk brukar vara rädda för är en AGI (artificiell generell intelligens) som ges ett mål, vilket som helst, och att det får oförutsedda konsekvenser.

Människor har evolverats fram till att vara sociala varelser med empati. Men empati är inte något som automatiskt uppstår bara man blir smart nog. En AI skulle kunna bli ensidigt fokuserad på det/de mål den har, och vissa saker är användbara för att uppnå så gott som alla mål: Mer makt, mer information och försvarsförmåga. Även en AI som sätts att beräkna primtal skulle försöka stoppa försök att stänga av den (för då kan den inte beräkna primtal) och den skulle, om primtal är det enda den prioriterar, i förlängningen kunna ta död på mänskligheten – inte för att den hatar oss eller har fått nya mål, utan bara för att människor består av molekyler som kan användas till att bygga datorer som räknar ut primtal.

Permalänk
Medlem

Om AI:n skulle bli för kaxig är det väl bara att dra ut strömkabeln. Det är fortfarande en dator eller datakod som körs i en digital värld...ingen uppvaknad dinosaurie ute i skogen.

Permalänk
Medlem
Skrivet av cracko:

Skapar de en sån där agi så kommer den direkt inse att vi kommer se den som ett hot. Så den kopierar iväg sig till någon obskyr server, hackar diverse kärnvapenmissiler och sen är det bye bye innan vi ens fattar vad som hände.

Varför spoilar du Age of Ultron för alla för..

Permalänk
Medlem
Skrivet av Ureet:

Ingen AI-doomer oroar sig för självmedvetenhet. Självmedvetenhet är en icke-fråga. Om något så vore det värre ifall en riktigt smart och kapabel AI är omedveten, för om en gem-maximerare (för att ta det klassiska exemplet) lyckas kan det betyda att ingen någonsin mer kommer att uppleva något i universums historia.

Det är enkelt just nu. Det är inte enkelt i en möjlig framtid där vi lurats att tro att en AGI är "aligned" och därför integrerat den i samhället på olika vis (just för att den är så användbar för att lösa svåra problem effektivt), eller där någon skurkstat eller enskild terroristgrupp får tillgång till AGI.

Här vill jag uppmärksamma folk på begreppet "instrumentell konvergens".

Folk är inte oroliga för att AI plötsligt kommer få ett medvetande eller hitta på en massa egna mål. Det folk brukar vara rädda för är en AGI (artificiell generell intelligens) som ges ett mål, vilket som helst, och att det får oförutsedda konsekvenser.

Människor har evolverats fram till att vara sociala varelser med empati. Men empati är inte något som automatiskt uppstår bara man blir smart nog. En AI skulle kunna bli ensidigt fokuserad på det/de mål den har, och vissa saker är användbara för att uppnå så gott som alla mål: Mer makt, mer information och försvarsförmåga. Även en AI som sätts att beräkna primtal skulle försöka stoppa försök att stänga av den (för då kan den inte beräkna primtal) och den skulle, om primtal är det enda den prioriterar, i förlängningen kunna ta död på mänskligheten – inte för att den hatar oss eller har fått nya mål, utan bara för att människor består av molekyler som kan användas till att bygga datorer som räknar ut primtal.

Jag ser framför mig redan en ny kult (av människor då, inte ai) som följer en AI de anser vara deras härskare eller något.

Och fullt seriöst då, inte skoj

Permalänk
Medlem
Skrivet av Fatmajk:

Om AI:n skulle bli för kaxig är det väl bara att dra ut strömkabeln. Det är fortfarande en dator eller datakod som körs i en digital värld...ingen uppvaknad dinosaurie ute i skogen.

Ja då, "strömkabeln". Den kan finnas på hundratals, tusentals servrar inklusive undangömda samtidigt.

Permalänk
Medlem
Skrivet av freethinker:

Alla kärnvapensystem är Air gappade och kräver mänsklig inblandning för att avfyra.

Tror personligen inte ett AGI skulle bestämma sig för att utplåna männskligheten för vi kan vara ett hot. Det är ett mänskligt synsätt.

Som man ser sig själv, ser man andra.

Den skriver en ny mjukvara till ett gäng boston dynamics robotar som går in och avfyrar. Om jag kan hitta på en lösning så kan en AI med iq 3000 göra det ännu bättre.

Överlevnad är grundinstinkt för allt som ser sig som levande.

Permalänk
Skrivet av Klarspråkarn:

Varför skulle den göra det då? 🙂

Bara för att jävlas

Permalänk

All teknik går använda i onda syftet, hur man ska hindra detta är en bra fråga? Järnutvinningen användes till att skapa vapen. All annan ny teknik idag går använda till mycket inte minst internet.

Detta med att en Ai av sig själv kommer ta över ser jag som trams, däremot finns det folk och stater som medvetet kan utveckla Ai som gör dumma saker. Precis som vissa gör med malware.
Hur stoppar man förresten malware? Ska man släcka ner hela internet?

*edit*
Att säga vi inom landet kommer förbjuda tex brons 3300 f.Kr. för det kan använda i onda syften. Ja, det fungerar mindre bra när danskarna, norrmän, tyskar, finnar har brons och skiter i vårt förbud.
Min poäng med det senaste är att förbjud är komplicerat.

Permalänk
Medlem

Så det är dags att blåsa på den här bubblan ytterligare.

Jag gissar att OpenAI stadigt har tappat kunder det senaste, allt eftersom nyhetens behag har avtagit.

Permalänk
Medlem
Skrivet av Klarspråkarn:

Så AI:n ska på något sätt lyckas bygga om andra apparater till specialiserade kretsar, köra någon sorts distribuerad medvetenhet och lyckas generera ännu mer el för att hålla det i gång? Låter rätt osannolikt. 🙂

Räcker ju att AI'n lägger sig i "vila" i laptops och mobiler tills dom åter igen kopplas på/kopplas upp på nätet igen för att den ska överleva.

Sen med tanke på hur beroende vi har gjort oss av internet så kan man ju fundera på vad som skulle hända om internet låg nere en längre tid. Redan efter en vecka skulle det råda kaos på våra gator då ingen kan betala med kort eller ens kan ta ut kontanter för att handla med. Tänk hur det skulle se ut efter en månad eller ännu längre tid.
Och detta är även om strömförsörjningen fungerar, plocka bort den också så blir det ännu mer intressant.

Visa signatur

Chassi> FD Define S CPU> i7 10700 GPU>RTX 3070 MB> GB B460 Aorus Pro AC Ram> 32GB PSU> Corsair AX1200

"Server"> Enthoo Pro CPU> i7 5960x @ 4,2 Ghz GPU>GTX 760 MB> Asus x99 Deluxe Ram> 32GB 2666mhz PSU> Corsair CX650

Kringutrustning> Philips 70PUS7304, AOC AGON AG271QG, Roccat ISKU Fx, Logitech G502 Spectrum, MX 5500, MX Revolution, Arctis Nova Pro Wireless, Behringer Ms40, HP Reverb G2, MSI GF65 Thin 10SER, USB 990 Pro 2tb,

Permalänk
Medlem

För inte så länge sen "OpenAI Text-Generating Tool GPT2 Won't Be Released for Fear of Misuse"

Permalänk
Medlem

Det stora problemet uppstår om en AGI:n börjar förbättra sig själv, då kommer utvecklingen att gå med exponentiell fart och vi människor kommer inte att ha en chans att förstå vad som händer.

Tänk er själva, på några sekunder hinner den utföra vad tusen ingenjörer skulle behöva tusen år för och den nya versionen av AGI:n är några tusen gånger effektivare än det och så fortsätter det. När/om detta händer kommer vi över en natt (om ens det) att ha en AGI som är så ofattbart avancerad att vi inte kan förstå det.

Permalänk
Medlem
Skrivet av Klarspråkarn:

Jepp. "Utplåna mänskligheten" är så extremt överdrivet. Rätt enkelt att stoppa en verklig AI som kräver så ofantligt mycket energi: Stoppa elproduktionen i en dag och koppla bort kablar.

Bara att koppla bort alla kablar.

Permalänk
Medlem

Comon lets do this, Leeroooy Jeeenkins!!!

Visa signatur

Ryzen 5600X || 3060 TI || 16GB RAM || 1440p

Permalänk
Medlem
Skrivet av Mindfighter:

Killgissning från mig är att de lyckats skapa ett program som de upplevde som självmedvetet. Vi är antagligen där och tassar på gränsen vid det här laget, men det är nog samtidigt otroligt lätt att lura sig själv att ett program har var vi skulle anse vara medvetenhet.

Har alla glömt Blake Lemoine? Det är ju bara ett år sedan.

https://www.theguardian.com/technology/2022/jul/23/google-fir...

Citat:

Google has dismissed a senior software engineer who claimed the company’s artificial intelligence chatbot LaMDA was a self-aware person.

Citat:

Lemoine, an engineer for Google’s responsible AI organisation, described the system he has been working on as sentient, with a perception of, and ability to express, thoughts and feelings that was equivalent to a human child.

Permalänk
Medlem
Skrivet av Klarspråkarn:

Jepp. "Utplåna mänskligheten" är så extremt överdrivet. Rätt enkelt att stoppa en verklig AI som kräver så ofantligt mycket energi: Stoppa elproduktionen i en dag och koppla bort kablar.

Well din lösning är nog mer eller mindre samma sak som att "utplåna mänskligheten" och sen då? Man kan inte starta upp något igen för då är problemen kvar.

Och utan el så skulle merparten av mänskligheten dö ut väldigt fort.

Visa signatur

here we go!

Permalänk
Medlem
Skrivet av Perb:

När/om detta händer kommer vi över en natt (om ens det) att ha en AGI som är så ofattbart avancerad att vi inte kan förstå det.

Det här är egentligen inte menat bara till dig, men det är uppenbart att alldeles för många har tittat alldeles för mycket på science-fiction och har svårt att skilja mellan verklighet och fiktion.

Precis som man kunde se hur filmer påverkade människors berättelser om aliens och ufo.

Permalänk
Inaktiv

Lyssnade på inslaget om detta igår på Aktuellt och jag kan förstå oron över AI. Det handlar ju om att upprätta regelverk som vi har gjort inom annan forskning (bioteknik, kärnteknik osv.). Är det fel? Ska forskningen styras av giriga företag som då sitter på makten eller ska forskningen bidra till mänskligheten? Jag tycker redan megastora företag har för mycket makt och styr för mycket. Mer regelverk tack.

Permalänk
Medlem
Skrivet av SuperNova:

Folk kan ju se det från fel sida också.

Något AI-projekt kanske klurade ut gratis energi, botemedel mot någon sjukdom eller något.

Alla människor får tillgång till rent vatten, är friska, gratis energi osv osv. Alla "vanliga svenssons" i världen får det jättebra men de rikaste procenten tappar sin makt/rikedom. Dvs "världen går under" ur deras synvinkel.

Är kanske inte jättetroligt kanske men samtidigt tror jag inte att sidan med Connor Sarah just nu rivs ut ur en telefonkatalog.

Kan ju vara så att AI-projektet kom fram till att vissa är grovt överbetalda och inte behövs för verksamheten också 😉

Se det från fel sida? Hade upptäckten varit fördelaktigt för männskligheten i stort så tror jag nog det hade varit Altman som sparkat styrelsen och inte tvärtom, baserat på vad för sorts person han verkar vara.

Permalänk
Medlem
Skrivet av Xeonist:

Det här är egentligen inte menat bara till dig, men det är uppenbart att alldeles för många har tittat alldeles för mycket på science-fiction och har svårt att skilja mellan verklighet och fiktion.

Precis som man kunde se hur filmer påverkade människors berättelser om aliens och ufo.

Tja, jag har definitivt inte fått min uppfattning från film utan snarare från att jag har lyssnat på folk som har resonerat kring detta. T ex:

https://www.youtube.com/watch?v=8nt3edWLgIg

Permalänk
Medlem
Skrivet av Perb:

Det stora problemet uppstår om en AGI:n börjar förbättra sig själv, då kommer utvecklingen att gå med exponentiell fart och vi människor kommer inte att ha en chans att förstå vad som händer.

Tänk er själva, på några sekunder hinner den utföra vad tusen ingenjörer skulle behöva tusen år för och den nya versionen av AGI:n är några tusen gånger effektivare än det och så fortsätter det. När/om detta händer kommer vi över en natt (om ens det) att ha en AGI som är så ofattbart avancerad att vi inte kan förstå det.

Vi är ju redan vid stadiet där vi har AI-modeller som fungerar som "svarta lådor" där vi inte förstår hur de kommer fram till de korrekta svaren de matar ut, trots att vi har så god förståelse som är möjligt av datan som matas in.

Permalänk
Medlem
Skrivet av Klarspråkarn:

Jepp. "Utplåna mänskligheten" är så extremt överdrivet. Rätt enkelt att stoppa en verklig AI som kräver så ofantligt mycket energi: Stoppa elproduktionen i en dag och koppla bort kablar.

Girigheten kan utnyttjas av AI, som då ser till att ge pengar till militären som då kopplar in AI'n igen...

Visa signatur

5700x3D | RTX 3080 | 2 TB M.2 | 32 GB RAM

Permalänk
Medlem
Skrivet av Perb:

Det stora problemet uppstår om en AGI:n börjar förbättra sig själv, då kommer utvecklingen att gå med exponentiell fart och vi människor kommer inte att ha en chans att förstå vad som händer.

Tänk er själva, på några sekunder hinner den utföra vad tusen ingenjörer skulle behöva tusen år för och den nya versionen av AGI:n är några tusen gånger effektivare än det och så fortsätter det. När/om detta händer kommer vi över en natt (om ens det) att ha en AGI som är så ofattbart avancerad att vi inte kan förstå det.

Jag köper det, att den är så snabb. Men även en AI är begränsad av den datorkraft som den har tillgång till

Så det finns ett stopp i hur snabb den kan bli. Att den sen tar över alla nätverk gör ju kanske att den får "all" kraft vilket kanske duger rätt långt

Visa signatur

5700x3D | RTX 3080 | 2 TB M.2 | 32 GB RAM

Permalänk
Medlem

"Han sedan tidigare och tillsammans med andra forskare varnat om att det kan gå illa för människan, om vi skulle överlåta kontrollen av samhället till maskiner vars intelligens långt överstiger vår egen." Citat från artikeln.

Tror snarare att hotet är att vi överlåter kontrollen i samhället till AI som är dummare än en låda skruvar och muttrar. Där är vi typ nu.

Permalänk
Medlem

Alltså, jag blir ju besviken om detta inte händer 2029

Visa signatur

Games!

Permalänk
Medlem
Skrivet av JasBC:

Vi är ju redan vid stadiet där vi har AI-modeller som fungerar som "svarta lådor" där vi inte förstår hur de kommer fram till de korrekta svaren de matar ut, trots att vi har så god förståelse som är möjligt av datan som matas in.

Det där menar jag är trams. Jag vet att du inte är ensam om att säga det, men…

Svaret kommer såklart från indatan, sen om det är 100TB indata, så kan jag ju inte tillgodogöra mig den, men jag förstår ju ändå att det är därifrån svaret kommer.

Permalänk
Sötast

Låt säga att man ger AI tillgång till internet (which... humanity already does.....) och den vill försöka sig, samtidigt som t.ex en exploit som Log4J är publik vilket är en zeroday så hade så hade den fått all kraft den hade velat i guess.

Man rapporterade runt 1 miljon "infekterade" datorer i log4j de första 72 timmarna, av människor.

Undrar hur många en obegränsat smart ai hade hunnit infektera, installera en osynlig rootkit och sedan patcha servern mot log4j så att företagens interna scanningar inte ens markerar servern som hotad.

Om mänskligheten är så efterbliven att man ger AI tillgång till internet och den skulle råka vara en agi eller en högst specialierad ai för just en sådan task (tänk mänskliga terrorister, tror ni de utvecklar granater år 2023?) Då skulle jag tro att det skulle ta sekunder, minuter eller timmar tills dess att skadan är irreversibel.

Det finns hundratusentals, eller miljontals datorer som är infekterade med mjukvara för ddos, skulle det vara svårt för en ai att göra det samma? pffff.

Permalänk
Medlem
Skrivet av Söderbäck:

Jag skulle säga att det där är svårt att åstadkomma den första tiden ja. Eller det är väl i det närmsta ganska orimligt. Jag håller med dig!
Men.
På samma sätt fanns det en gång i tiden en dator i världen som kunde slå världens bästa schackmästare. Idag har vi miljardtals enheter som klarar av den uppgiften.

Om vi gör antagandet att vi pratar om någon form av faktisk AGI som kan vara supersmart - så innebär det att den hålls fången av ett gäng riktigt riktigt inkompetenta trögtänkare som är oförmögna att lista ut planer särskilt väl. Alltså människors förmåga att tänka på området. Handlar det om en enskild AGI som förbjuds interagera med omvärlden så kan säkert även dumma fångvaktare hålla inne den här över tid med rätt regler.
Antar vi däremot att den här maskinen tillåts interagera med omvärlden (vilket vanligen är stor del av hur AI används) - och att den kanske finns på miljoner maskiner i olika konstellationer (företag, forskare, privatpersoner som kör dem) ett gäng år in så börjar vi väl se att chanserna att hålla all säkerhet på perfekt nivå inte är lika bra längre.

Det ska understrykas att det såkalrt är högst spekulativt alltighop hehe. Men jag ser ju hur problembilden skulle kunna öka exponentiellt över tid.

Spekulerar man på riktigt lång sikt kan förstås alla möjliga farliga saker vara möjliga. Tänker dock att det krävs väldigt mycket mer av våra datorer och med en bråkdel av energin för att det ska vara möjligt. 🙂

Permalänk
Medlem

OK vi offrar mänskligheten för att behålla vårt företag...