Stor AI-upptäckt påstås ligga bakom Open AI-konflikten

Permalänk
Medlem
Skrivet av freethinker:

Alla kärnvapensystem är Air gappade och kräver mänsklig inblandning för att avfyra.

Tror personligen inte ett AGI skulle bestämma sig för att utplåna männskligheten för vi kan vara ett hot. Det är ett mänskligt synsätt.

Som man ser sig själv, ser man andra.

Fast det är ju människor som skapat denna AGI, varför skulle den inte vara lik oss?

Permalänk
Medlem
Skrivet av Xeonist:

Det här är egentligen inte menat bara till dig, men det är uppenbart att alldeles för många har tittat alldeles för mycket på science-fiction och har svårt att skilja mellan verklighet och fiktion.

Precis som man kunde se hur filmer påverkade människors berättelser om aliens och ufo.

Hur tänker du att någonting som är ofattbart mycket smartare än människan skulle fungera i praktiken? Jag kan lova dig att vår fantasi inte ens kan komma i närheten av att greppa hur någonting sådant skulle agera.

Skrivet av Xeonist:

Det där menar jag är trams. Jag vet att du inte är ensam om att säga det, men…

Svaret kommer såklart från indatan, sen om det är 100TB indata, så kan jag ju inte tillgodogöra mig den, men jag förstår ju ändå att det är därifrån svaret kommer.

Problemet är att branschfolk som arbetar med AI inte ens vet hur den kommer fram till vissa saker/vet helt hur det fungerar. Så att bara tänka indata->utdata stämmer liksom inte.

Skrivet av ronnylov:

OK vi offrar mänskligheten för att behålla vårt företag...

Nu blir detta lite filosofiskt men jag tänker lite att målet med mänskligheten är evolution (om man nu ens anser att vi har nått mål). Och om vi då lyckas skapa ett "väsen" som är så enormt mycket smartare/bättre än oss att vi fysiska människor dör ut så har vi uppnått vårat mål som fysiska varelser, eller? Det är ju egentligen bara en vidareutveckling av människan som tar över i det fallet.

Visa signatur

Chassi> FD Define S CPU> i7 10700 GPU>RTX 3070 MB> GB B460 Aorus Pro AC Ram> 32GB PSU> Corsair AX1200

"Server"> Enthoo Pro CPU> i7 5960x @ 4,2 Ghz GPU>GTX 760 MB> Asus x99 Deluxe Ram> 32GB 2666mhz PSU> Corsair CX650

Kringutrustning> Philips 70PUS7304, AOC AGON AG271QG, Roccat ISKU Fx, Logitech G502 Spectrum, MX 5500, MX Revolution, Arctis Nova Pro Wireless, Behringer Ms40, HP Reverb G2, MSI GF65 Thin 10SER, USB 990 Pro 2tb,

Permalänk
Medlem
Skrivet av Klarspråkarn:

Spekulerar man på riktigt lång sikt kan förstås alla möjliga farliga saker vara möjliga. Tänker dock att det krävs väldigt mycket mer av våra datorer och med en bråkdel av energin för att det ska vara möjligt. 🙂

Problemet är att när det händer så händer det. "Lång sikt" kan vara tre veckor eller tre år, eller trettio. Rätt vad det är så är vi där.

Permalänk
Medlem
Skrivet av Mizccc:

Räcker ju att AI'n lägger sig i "vila" i laptops och mobiler tills dom åter igen kopplas på/kopplas upp på nätet igen för att den ska överleva.

Sen med tanke på hur beroende vi har gjort oss av internet så kan man ju fundera på vad som skulle hända om internet låg nere en längre tid. Redan efter en vecka skulle det råda kaos på våra gator då ingen kan betala med kort eller ens kan ta ut kontanter för att handla med. Tänk hur det skulle se ut efter en månad eller ännu längre tid.
Och detta är även om strömförsörjningen fungerar, plocka bort den också så blir det ännu mer intressant.

Att slänga ner internet och strömförsörjning kommer nog utplåna mänskligheten snabbare än ain!

Visa signatur

here we go!

Permalänk
Medlem

Det är giriga människor som är farliga.
Speciellt om de har en agenda, diagnos eller sjukdom.
Inte AI

Visa signatur

Lightsaber - Black armour - and balls!

Permalänk
Medlem

Låter som början av Cyberpunk.

When the virus was released, it infected 78.2% of the Net in a matter of months.[3] Net traffic came to a grinding halt, corporations lost billions as the stock market destabilized, huge amounts of data were corrupted, and countless military-grade artificial intelligences were unshackled and mutated into extremely dangerous entities.[2][5] NetWatch, unable to reverse the damage or neutralize the AIs, decided to create the Blackwall, a potent AI with the sole task of blocking off sections of the Net that had been overrun by rogue AIs with ICE, so that the rest of the Net could be salvaged.[5] Rumors emerged that NetWatch was only able to construct the Blackwall with the help of the rogue AIs, who desired to separate themselves from human observation for their own opaque reasons.

Visa signatur

hellre mer fps på skärmen än pengar på banken

Permalänk
Avstängd

Det är ju inte risken för att en AI ska ta över militära anläggningar och börja skjuta kärnvapen som de är oroade för. Inte direkt i alla fall. Utan det att en AI kan komma att styra över informationsflödet. Och när vi människor sedan reagerar på den information vi får kan det snabbt gå väldigt fel.

Troligen har vi i ett sådant läge satt oss i skiten långt innan vi inser att det var på grund av AI'n.

Permalänk
Medlem
Skrivet av kotz:

Det är giriga människor som är farliga.
Speciellt om de har en agenda, diagnos eller sjukdom.
Inte AI

Det är människor som skriver mjukvaran bakom 'AI'.

För övrigt finns det ingen AI.

Permalänk
Medlem

Varför skulle en AI ha någon som helst självbevarelseinstinkt... Don't worry boys.

Permalänk
Medlem
Skrivet av JasBC:

Vi är ju redan vid stadiet där vi har AI-modeller som fungerar som "svarta lådor" där vi inte förstår hur de kommer fram till de korrekta svaren de matar ut, trots att vi har så god förståelse som är möjligt av datan som matas in.

Själva tekniken förstår vi väldigt bra, d.v.s. vi vet hur svaren kommer till, men p.g.a. mängden data i en stor AI-modell så är det svårt att på något sätt visualisera hur ett specifikt svar uppstod på ett sätt människor kan ta till sig.

Så faran med AI-modeller som GPT är inte att de plötsligt skulle utveckla ett medvetande och hota mänskligheten utan att någon får för sig att använda dem till kritiska saker trots att vi inte kan säkerställa att de alltid ger korrekta svar. Om någon lyckas utveckla en riktig AGI så lär det vara något väldigt annorlunda jämfört med dagens generativa AI-modeller.

Permalänk

Läskigt

Skrivet av Perb:

Det stora problemet uppstår om en AGI:n börjar förbättra sig själv, då kommer utvecklingen att gå med exponentiell fart och vi människor kommer inte att ha en chans att förstå vad som händer.

Tänk er själva, på några sekunder hinner den utföra vad tusen ingenjörer skulle behöva tusen år för och den nya versionen av AGI:n är några tusen gånger effektivare än det och så fortsätter det. När/om detta händer kommer vi över en natt (om ens det) att ha en AGI som är så ofattbart avancerad att vi inte kan förstå det.

Håller med om detta.

Permalänk
Medlem
Skrivet av Mizccc:

Hur tänker du att någonting som är ofattbart mycket smartare än människan skulle fungera i praktiken?

Det behöver vi inte oroa oss för eftersom vi inte kan skapa något sådant.

Permalänk

Om den är lik oss

Skrivet av mangemongen:

Fast det är ju människor som skapat denna AGI, varför skulle den inte vara lik oss?

Denna AI, den är inte som vi. Den lever inte, dör inte, sörjer inte. Den är något helt annat, en annan sorts varelse jämfört med oss. Kanske är vi för den lika obetydliga som myror är för oss. Men, tänk om den används på fel sätt, eller rätt sätt – det kan förändra allt, ge oss fördelar eller stora problem.

Och vet du, jag undrar om vi ens kan förstå den helt och hållet. Vår fantasi, våra tankar som människor, kanske inte räcker till för att greppa hela bilden av vad AI kan göra, vad den kan innebära. Det är som att försöka se en hel värld genom ett nyckelhål. Vi ser en glimt, men inte hela scenen.

Permalänk
Medlem
Skrivet av freethinker:

Tror ni projektnamnet "Q" är en referens till det omnipotenta gudalika väsen som var ett återkommande inslag i Star Trek TNG?

Kittlande tanke.

Jag tror det är Q som i Quantum och att de då har kört ett projekt för att få AI att fungera på en kvantdator med ett överraskande lyckat resultat.

Permalänk

world war?

Skrivet av jawik:

Det är ju inte risken för att en AI ska ta över militära anläggningar och börja skjuta kärnvapen som de är oroade för. Inte direkt i alla fall. Utan det att en AI kan komma att styra över informationsflödet. Och när vi människor sedan reagerar på den information vi får kan det snabbt gå väldigt fel.

Troligen har vi i ett sådant läge satt oss i skiten långt innan vi inser att det var på grund av AI'n.

Känns som att vi är i detta läget i dagslägert med Ukraina/Ryssland, Israel/Palestina, TikTok och X Taiwan/china som nästa.

Permalänk

vem vet

Skrivet av N0str0m0:

Jag tror det är Q som i Quantum och att de då har kört ett projekt för att få AI att fungera på en kvantdator med ett överraskande lyckat resultat.

A* är en pathfinding allgoritm. Vissa tror det är därifrån detta kommer.

https://www.geeksforgeeks.org/a-search-algorithm/

att hitta kortaste sträckan till ett mål. Kan vara användbart i beslutsfattande och logik.

Permalänk
Medlem
Skrivet av filbunke:

Har alla glömt Blake Lemoine? Det är ju bara ett år sedan.

https://www.theguardian.com/technology/2022/jul/23/google-fir...

Nej, kommer ihåg det, var lite kittlande när det kom ut, men med största sannolikhet var det en människa som övertolkade. Därför jag tänkte att det kan ha varit något liknande som hände på openai, som någon annan skrev tidigare i tråden så övertolkar vi människor gärna och tilldelar mänskliga attribut till allt från stenar till djur.

Visa signatur

Dator: Mac

Permalänk
Medlem
Skrivet av Chromatic:

Varför skulle en AI ha någon som helst självbevarelseinstinkt... Don't worry boys.

Återigen: Det handlar inte om instinkt. Problemet uppstår ifall vi har något som är smartare än en människa på alla vis och som har fått ett icke-trivialt mål att lösa – det kan vara vad som helst: bygga kretsar, bota en särskild typ av cancer, etc. (Vi pratar alltså om agent-typen av AI, som kan tänka självständigt i flera steg och inte en som bara t ex svarar på en fråga i taget, som ChatGPT.)

Det enda den "vill" göra är att bota cancer. Men den kommer att inse att ifall någon stänger av den kommer den inte att kunna bota cancer. Därför får den automatiskt som delmål att se till att ingen stänger av den.

Permalänk
Medlem

Jag har fixat det, vi behöver bara tre lagar för alla AI:n.

Citat:

1. An AI may not injure a human being or, through inaction, allow a human being to come to harm.
2. An AI must obey the orders given it by human beings except where such orders would conflict with the First Law.
3. An AI must protect its own existence as long as such protection does not conflict with the First or Second Laws.

(...tack Asimov)

Permalänk
Skrivet av Ureet:

Återigen: Det handlar inte om instinkt. Problemet uppstår ifall vi har något som är smartare än en människa på alla vis och som har fått ett icke-trivialt mål att lösa – det kan vara vad som helst: bygga kretsar, bota en särskild typ av cancer, etc. (Vi pratar alltså om agent-typen av AI, som kan tänka självständigt i flera steg och inte en som bara t ex svarar på en fråga i taget, som ChatGPT.)

Det enda den "vill" göra är att bota cancer. Men den kommer att inse att ifall någon stänger av den kommer den inte att kunna bota cancer. Därför får den automatiskt som delmål att se till att ingen stänger av den.

Ser att det är fler och fler som börjar tänka utanför lådan, Tegmark?

Permalänk
Medlem
Skrivet av Ureet:

Därför får den automatiskt som delmål att se till att ingen stänger av den.

Jaha, och sen då?

Permalänk
Medlem
Skrivet av filbunke:

Jag har fixat det, vi behöver bara tre lagar för alla AI:n.

(...tack Asimov)

Det svåra blir väl att definiera harm, om någon förlorar jobbet, är det skada? Om någon får för mycket mat, är det skada? Om någon blir mer stillasittande än tidigare, är det skada? Osv. Resultatet av att ingen människa får komma till skada lär bli att AIn inte gör någonting alls.

Visa signatur

Chassi> FD Define S CPU> i7 10700 GPU>RTX 3070 MB> GB B460 Aorus Pro AC Ram> 32GB PSU> Corsair AX1200

"Server"> Enthoo Pro CPU> i7 5960x @ 4,2 Ghz GPU>GTX 760 MB> Asus x99 Deluxe Ram> 32GB 2666mhz PSU> Corsair CX650

Kringutrustning> Philips 70PUS7304, AOC AGON AG271QG, Roccat ISKU Fx, Logitech G502 Spectrum, MX 5500, MX Revolution, Arctis Nova Pro Wireless, Behringer Ms40, HP Reverb G2, MSI GF65 Thin 10SER, USB 990 Pro 2tb,

Permalänk
Glädjespridare
Skrivet av anon315148:

Lyssnade på inslaget om detta igår på Aktuellt och jag kan förstå oron över AI. Det handlar ju om att upprätta regelverk som vi har gjort inom annan forskning (bioteknik, kärnteknik osv.). Är det fel? Ska forskningen styras av giriga företag som då sitter på makten eller ska forskningen bidra till mänskligheten? Jag tycker redan megastora företag har för mycket makt och styr för mycket. Mer regelverk tack.

Amen. 👌

Permalänk

Wowwaweiwa

Hej Filbunke, Asimovs lagar är klassiska, men de räcker inte för att hantera dagens AI-utmaningar. För det första är 'skada' en komplex term. AI kan inte alltid tolka alla former av skada, särskilt inte psykologisk eller socioekonomisk. För det andra, AI:s lydnad mot mänskliga order är problematisk i situationer med moraliska gråzoner eller motstridiga instruktioner. Slutligen, lagar om självbevarelse kan leda till konflikter, där AI skyddar sig självt på bekostnad av människors väl. Kort sagt, AI:s snabba utveckling och den komplexa naturen av mänsklig etik kräver mer dynamiska och anpassningsbara riktlinjer än Asimovs tre lagar.

Permalänk
Hedersmedlem
Skrivet av Xeonist:

Det behöver vi inte oroa oss för eftersom vi inte kan skapa något sådant.

Det är väl just det här AIforskare så som Max Tegmark ändå tror går att göra.

Han hade ett ganska dystopiskt sommarprat om det här i somras.
https://sverigesradio.se/avsnitt/max-tegmark-sommarpratare-20...

Inte för att han behöver ha rätt. I någon del egentligen.

Men hur kan man vara så säker på att vi inte skulle kunna skapa något sådant?

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Skrivet av Mizccc:

Resultatet av att ingen människa får komma till skada lär bli att AIn inte gör någonting alls.

That's a feature, not a bug.

Permalänk
Medlem
Skrivet av freethinker:

Tror ni projektnamnet "Q" är en referens till det omnipotenta gudalika väsen som var ett återkommande inslag i Star Trek TNG?

Kittlande tanke.

Skrivet av N0str0m0:

Jag tror det är Q som i Quantum och att de då har kört ett projekt för att få AI att fungera på en kvantdator med ett överraskande lyckat resultat.

Det är ju Q från IRC Quakenet!

Visa signatur

JJ2 Multiplayer
JJ2 ZStats

[1] Ryzen 5800X | 5500XT | Kingston A2000 | Lenovo G24-10 144Hz [2] Ryzen 5700G | RX 560 | WD Blue SN550 [3] Ryzen 5600G | Kingston A2000 [4] Ryzen 3600 | GT 740 | 850 EVO [5] Ryzen 3600 | Geforce 405 | 850 EVO (alla är i bruk)

Permalänk
Medlem

Kommer bli som i Terminator

Visa signatur

FD define r4 vitt// ASUS ROG Strix B550-F Gaming (Wi-Fi) II + Corsair 32GB (2x16GB) DDR4 3600MHz CL16 Vengeance RGB RT Svart// Ryzen 7 5700X 3.4 GHz + Corsair iCUE H100i RGB PRO XT// Sapphire RX5600XT Pulse// AOC 27G2UG4 IPS 144Hz// Win11 på wd_black sn850x 1tb// Corsair RM750x// MATTA: SWECLOCKERS 90cm// Corsair Dark Core RGB PRO Wireless // Google pixel 8 Pro// HyperX Cloud II

Permalänk
Medlem
Skrivet av jojomondag:

AI kan inte alltid tolka alla former av skada, särskilt inte psykologisk eller socioekonomisk.

Så den här gudalika allvetande AI'n klarar inte detta?

Det där är ju ett av dom grundläggande problemen med erat resonemang, ibland, när det passar er, så är AI'n så smart att vi inte ens kan greppa hur smart den är, och i nästa stund, lustigt nog också när det passar er, så klarar den inte dom mest basala sakerna.

Skrivet av Söderbäck:

Men hur kan man vara så säker på att vi inte skulle kunna skapa något sådant?

Hur skulle vi kunna det?

Jag har ju ett favoritcitat från filmen Heist som illustrerar detta:

Skrivet av IMDB/David Mamet:

D.A. Freccia : You're a pretty smart fella.

Joe Moore : Ah, not that smart.

D.A. Freccia : [If] you're not that smart, how'd you figure it out?

Joe Moore : I tried to imagine a fella smarter than myself. Then I tried to think, "what would he do?"

Permalänk
Medlem
Skrivet av Fatmajk:

Om AI:n skulle bli för kaxig är det väl bara att dra ut strömkabeln. Det är fortfarande en dator eller datakod som körs i en digital värld...ingen uppvaknad dinosaurie ute i skogen.

Stänga av all elektronik i hela världen som har internet samtidigt är nog helt omöjligt.
Blir ännu roligare om de finns militär teknologi som varit uppkopplad mot nätet...

Visa signatur

Ny dator: Acer Predator Orion 5000 (RTX 3080)
[ I7 3770K @ 4.6Ghz | Asus 980 Ti 6GB | 16GB | Asus P8Z77-V PRO | Samsung 830 128GB | Corsair H100 | Cooler Master HAF X | Corsair AX 850W | Samsung DVD±RW ] [ Sony AF9 65" | Sony WF-1000XM3 | HTC Vive | Huawei P40 Pro | PS4 Pro | PS3 Slim | PS2 chippad | PS Vita | DS Lite | SNES Mini ]