Google öppnar Bard för alla – svarar fel om Google-produkter

Permalänk
Melding Plague

Google öppnar Bard för alla – svarar fel om Google-produkter

Den AI-drivna chattbotten Bard ska börja svara på frågor på Google, men visar sig ha dålig koll.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Kan det vara för att korrekt information om Pixel Fold är för färsk? Och att den går efter en mix av alla gissningar som gjordes om produkten?

Visa signatur

Windows 11 Pro | Intel i7 8700 | ASUS Prime Z370-P | Corsair 16GB 3000MHz | ASUS GTX 1080 | Fractal Design Define S | Corsair RM750x | Hyper 212 EVO

Permalänk
Medlem

Att ChatGPT är dålig på att länka artiklar har jag personlig erfarenhet av. Jag kan lista alla författare av artikeln och programmet säger ja det kan jag länka och sedan länkar det något helt annat.

Visa signatur

Ryzen 7800X3D, be quiet! pure rock 2, RTX 4070 Ti Super, Corsair 32GB 6000MHz CL36, Corsair TX850M

Permalänk
Medlem
Skrivet av Joppis:

Kan det vara för att korrekt information om Pixel Fold är för färsk? Och att den går efter en mix av alla gissningar som gjordes om produkten?

Skrivet av Kladdpapper:

Att ChatGPT är dålig på att länka artiklar har jag personlig erfarenhet av. Jag kan lista alla författare av artikeln och programmet säger ja det kan jag länka och sedan länkar det något helt annat.

Ungefär som att prata med vilken annan människa som helst då. Man fyller i med gissningar där man inte vet och framställer det som fakta

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Skrivet av talonmas:

Ungefär som att prata med vilken annan människa som helst då. Man fyller i med gissningar där man inte vet och framställer det som fakta

tragiskt men sant

Permalänk
Medlem
Skrivet av Kladdpapper:

Att ChatGPT är dålig på att länka artiklar har jag personlig erfarenhet av. Jag kan lista alla författare av artikeln och programmet säger ja det kan jag länka och sedan länkar det något helt annat.

Det stämmer bra med mina erfarenheter.

Den händer titt som tätt att GPT 4 hänvisar till artiklar som borde finnas på Google Scholar, med rimlig rubrik, tidskriftsnamn, volymnummer, sidor mm, men som inte finns och aldrig funnit. Författarna finns, men inte artikeln...

Det är ofta märkligt.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem
Skrivet av talonmas:

Ungefär som att prata med vilken annan människa som helst då. Man fyller i med gissningar där man inte vet och framställer det som fakta

Det är väl kanske politiker som tränat botten.

Permalänk
Medlem
Skrivet av sAAb:

Det stämmer bra med mina erfarenheter.

Den händer titt som tätt att GPT 4 hänvisar till artiklar som borde finnas på Google Scholar, med rimlig rubrik, tidskriftsnamn, volymnummer, sidor mm, men som inte finns och aldrig funnit. Författarna finns, men inte artikeln...

Det är ofta märkligt.

Det är nyhet för mig, tack! Men helt makalöst egentligen.

Visa signatur

CPU: AMD Ryzen 5 2600 Mobo: Asus Prime X470 PRO Ram: Corsair Vengeance LPX 16GB DDR4 3000MHz PSU: Cooler Master 700 W GPU: XFX Radeon RX 5700 XT 8 GB SSD: Samsung EVO 850 500 GB SATA 2.5" HDD: Massa diskar Chassi: Fractal Design Define R3

Permalänk
Medlem
Skrivet av sAAb:

Det stämmer bra med mina erfarenheter.

Den händer titt som tätt att GPT 4 hänvisar till artiklar som borde finnas på Google Scholar, med rimlig rubrik, tidskriftsnamn, volymnummer, sidor mm, men som inte finns och aldrig funnit. Författarna finns, men inte artikeln...

Det är ofta märkligt.

Fast egentligen är det inte märkligt, eftersom att modellen som sådan inte har den blekaste aning om vad den skriver ut. Den genererar output med ett mönster som den är tränad på ska matcha mönstret utav inputen. Vad texten innehåller vet den inget om och kan hitta på lite vad som helst för att det ska passa.

Permalänk
Medlem
Skrivet av sesam2k:

Det är nyhet för mig, tack! Men helt makalöst egentligen.

Här är ett inlägg med rena AI-falsarierna från Bing:
https://www.fotosidan.se/forum/threads/ai-får-vi-en-verklig-d...

Han har alltså frågat på sig själv och den hittar på all möjlig goja.

Tillägg:
Mer, fast GPT: https://www.fotosidan.se/forum/threads/ai-får-vi-en-verklig-d...

Permalänk
Bildexpert
Skrivet av ztenlund:

Här är ett inlägg med rena AI-falsarierna från Bing:
https://www.fotosidan.se/forum/threads/ai-får-vi-en-verklig-d...

Inte viste jag att Sten-Åke Sändh spelade ”godhjärtade Lasse Kongo i c/o Segemyhr”.

Permalänk
Medlem
Skrivet av Nissling:

Inte viste jag att Sten-Åke Sändh spelade ”godhjärtade Lasse Kongo i c/o Segemyhr”.

Inte han själv heller...

Permalänk
Medlem

Sökte efter faktafel med chatgpt en kväll genom att ställa lite halvkluriga frågor som jag själv kunde svaren på. Såg den blåljuga med självsäkerhet gång på gång på gång. Verkar som det kanske är ett fundamentalt fel i hur dessa "AI'n" fungerar. Det gäller primärt för dem att skapa övertygande och välskrivna textstycken, innehållet är sekundärt.

Visa signatur

i7-2700K 5GHz | 32GB DDR3-1600 | ASUS Maximus V Gene | GTX 980 2-way SLI

Permalänk
Medlem
Skrivet av Teddis:

Sökte efter faktafel med chatgpt en kväll genom att ställa lite halvkluriga frågor som jag själv kunde svaren på. Såg den blåljuga med självsäkerhet gång på gång på gång. Verkar som det kanske är ett fundamentalt fel i hur dessa "AI'n" fungerar. Det gäller primärt för dem att skapa övertygande och välskrivna textstycken, innehållet är sekundärt.

Det kommer faktafel snabbt. Jag har bokfört dessa LLM att använda för att göra enkla texter med inputs från dig. Ser inte direkt hur en språkmodell ska kunna veta fakta utan att det görs jättemycket input från kontrollerande människor.

Den fungerar liknande en telefons sms-tangentbord där den gissar vilket ord som skulle passa härnäst. Iaf är det min uppfattning

Visa signatur

Gigabyte RTX 3070 | Samsung 980 | AMD 5950x
32GB 3600MHz CL14 | Corsair RM850X | ASUS ROG CROSSHAIR VIII DARK HERO
Skärm: Acer 27" ConceptD CP3271KP IPS 4K HDR 144 hz

Skriv gärna ett svar om ditt problem löste sig.

Permalänk

Finns en tendens att tro mer på någon som utelämnar ord såsom kanske och tror.

Vet inte om chatgpt gör det

Permalänk
Medlem
Skrivet av fluffest:

Fast egentligen är det inte märkligt, eftersom att modellen som sådan inte har den blekaste aning om vad den skriver ut. Den genererar output med ett mönster som den är tränad på ska matcha mönstret utav inputen. Vad texten innehåller vet den inget om och kan hitta på lite vad som helst för att det ska passa.

Årets sanning, jag förstår inte varför alla har fått panik över ett "gissa nästa bokstav" program. Visserligen ett mycket bra sådant, men knappast något som kommer att utvecklas till Data från startrek. Faktum kvarstår att vi inte har någon aning om hur man framställer en "riktigt" AI. Det kan hända imorgon eller aldrig, inget signifikant har ändrats sen innan dall e och gpt släpptes.....

Visa signatur

"Jag är så gammal att jag brukade styra med piltangenterna"
StoppaCopySwede
Fraktrfitt:Inet

Permalänk
Medlem

Folk verkar inte förstå vad dagens AI gör. Det sammanfattar och drar slutsatser efter insamlad data.
Matar du en AI med felaktig data (eller regler som står över korrekt data) så kommer resultatet också bli fel.

Detta fenomen går återskapa relativt enkelt. Skapa falsk fakta om något som inte finns och släppt det på typ Wikipedia mfl. Fråga sedan en AI om just detta och den kommer dra slutsatser utifrån datan den hittar.
(extremt förenklat men resultatet blir detsamma)

Frågan som långsiktigt kommer bli intressant är om man kommer låta AI ta del av all information eller bara den man anser är "rätt/korrekt", skaparen bestämmer reglerna och därmed resultaten.

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Medlem
Skrivet av Orisons:

Årets sanning, jag förstår inte varför alla har fått panik över ett "gissa nästa bokstav" program. Visserligen ett mycket bra sådant, men knappast något som kommer att utvecklas till Data från startrek. Faktum kvarstår att vi inte har någon aning om hur man framställer en "riktigt" AI. Det kan hända imorgon eller aldrig, inget signifikant har ändrats sen innan dall e och gpt släpptes.....

Är inte det att förminska programmet lite? Det kan ju inte bara vara det den gör då OpenAI, och andra, inte kan förklara helt hur den funkar. Som jag fattat det iaf. Sen när den tar fram kod så känns det lite mer avancerat än "att gissa nästa ord" (även om det är så det beskrivs ibland).

Sen håller jag med om att de känns opålitliga i dagsläget, med lögner osv.

Permalänk
Medlem

Fy F!! säger jag bara, har grymt illavarslande magkänsla för allt det som pågår nu:(

Permalänk
Medlem
Skrivet av Dunde:

Det är väl kanske politiker som tränat botten.

Haha, ja kanske inte helt från sanningen. Bottnarna tränas på offentligt material och de som hörs mest i media är trots allt politiker

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Medlem
Skrivet av fluffest:

Fast egentligen är det inte märkligt, eftersom att modellen som sådan inte har den blekaste aning om vad den skriver ut. Den genererar output med ett mönster som den är tränad på ska matcha mönstret utav inputen. Vad texten innehåller vet den inget om och kan hitta på lite vad som helst för att det ska passa.

Vet inte om det är riktigt så det fungerar. Den kan ju resonera. Och sedan använda det man resonerat fram. Och den kan förstå komplex info och sedan dra en slutsats av det. Och den förstår att fakta om ett närliggande ämne kan passa in på ämnet man diskuterar. Jag har haft mycket diskussioner med den, Och visst svamlar den ibland, men helt otrolig i andra situationer. Vad man dock inte ska fråga den om är länkar till studier, för det klarar den inte.

Citat:

Konkurrerande AI:n Chat GPT har också visat sig ge många felaktiga och ofta helt påhittade svar sedan den lanserades i höstas. I vissa fall har AI:n hänvisat till källor som inte finns och citerat från artiklar som aldrig har skrivits
.

Ofta påhittade svar. Men hur ofta är det rätt?

Permalänk
Medlem

Jag bestämde mig för att testa hur mycket AI:n "förstår", jag frågade den vilken 2D-form det skulle se ut som, ovanifrån, om man placerade två liggande cylindrar ovanpå varandra, sedan vred den övre 90 grader.
Och även om jag fick försöka några gånger innan den förstod hur jag menade (den ville ha det till att om man ser en cylinder ovanifrån ser det ut som en cirkel), och jag fick göra en nygenerering av ett svar jag inte var nöjd med, så är jag övertygad om att det inte handlar om att den bara gissar, eller hittar på, ord som passar in i sammanhanget, så som många tror.

jag:
"Vi säger så här; vi har cylinder A liggande på bordet, parallellt med dess yta. Sedan lägger vi cylinder B ovanpå cylinder A, även cylinder B parallellt med bordet. Sett ur ett fågelperspektiv, sammanfaller ändarna av cylinder A och B. Nu vrider vi cylinder B 90 grader medurs. Sett ur ett fågelperspektiv, vilken av följande tvådimensionella former påminner de två cylindrarna om; cirkel; rektangel, kors, eller fyrkant?"

chatGPT:
"När cylinder B vrids 90 grader medurs kommer de två cylindrarna tillsammans att påminna om ett kors sett ur ett fågelperspektiv.
Detta beror på att när cylinder B vrids 90 grader medurs kommer dess topp och botten att visas som två linjer som är vinkelräta mot cylinderns längdriktning. Dessa linjer kommer att korsa cylindern A, som projiceras som en rektangel parallell med bordet.
Således kommer de två cylindrarna tillsammans att skapa en form som påminner om ett kors när de ses ur ett fågelperspektiv."

Jag fortsatte med den här frågan:

"Om jag släpper en apelsin ner i en 3 cm djup gyttjepöl, och sedan försiktigt plockar upp apelsinen, då kommer det finnas ett avtryck i gyttjan från apelsinen. Vilken av följande former kommer det avtrycket att ha; en skålliknande form, en cylinderliknande form eller en form liknande en uppochnedåt vänd pyramid?"

ChatGPT:
"När en apelsin släpps ner i en gyttjepöl och sedan plockas upp kommer det att finnas ett avtryck i gyttjan från apelsinen. Detta avtryck kommer att ha en skålliknande form, där det bredaste delen av avtrycket är ungefär lika stort som apelsinens diameter och djupet av avtrycket minskar gradvis mot kanterna.
Detta beror på att när apelsinen landar i gyttjan, pressas gyttjan undan och formar sig efter apelsinens form. Eftersom apelsinen är rund, kommer gyttjan att pressas ut från sidorna och bilda en skålform runt apelsinen. När apelsinen sedan plockas upp, kommer gyttjan att återgå till sin ursprungliga form, men med ett avtryck som fortfarande liknar en skålform.
Således kommer avtrycket i gyttjan från apelsinen att ha en skålliknande form."

jag:
"Låt oss säga att gjyttjepölen är djupare än apelsinens diameter, och att den sjunker till botten innan den avlägsnas. Vilken form har då avtrycket, sett ur ett fågelperspektiv?"

chatGPT:
"Om gyttjepölens djup är större än apelsinens diameter och apelsinen sjunker till botten innan den avlägsnas, kommer avtrycket i gyttjan från apelsinen att ha en cylinderliknande form sett ur ett fågelperspektiv.
När apelsinen sjunker ner i gyttjan, kommer gyttjan att tryckas undan och formas efter apelsinens form. Men på grund av gyttjepölens större djup kommer trycket från apelsinen att vara mer utbrett i djupled än i sidled. Detta kommer att resultera i en cylindrisk form på avtrycket i gyttjan från apelsinen, med ungefär samma diameter som apelsinen.
Således kommer avtrycket i gyttjan från apelsinen att ha en cylinderliknande form om gyttjepölens djup är större än apelsinens diameter och apelsinen sjunker till botten innan den avlägsnas."

Permalänk
Medlem

Dagens AI är ju vad datorer/internet var 1995 eller nått. Dvs väldigt nytt. Tar tid innan allt blir bra. Håll ut och sluta tjut.

Visa signatur

Intel i7 2700k | Asus P8Z77-V PRO | Noctua NH-D14 | Gigabyte GTX 670 | Corsair 8GB LP | Samsung 830 128GB | Define R3 | Corsair HX 650W
Thinkpad X41 | Thinkpad X200 - RIP | Thinkpad X220 | Thinkpad T480s | Fri frakt - Inet.se | Dagens fynd

Permalänk
Medlem

Med hjälp av AI så sabbade jag LightDM i Linux till den grad att jag behövde byta till SDDM.

Visa signatur

JJ2 Multiplayer
JJ2 ZStats

[1] Ryzen 5800X | 5500XT | Kingston A2000 | Lenovo G24-10 144Hz [2] Ryzen 5700G | RX 560 | WD Blue SN550 [3] Ryzen 5600G | Kingston A2000 [4] Ryzen 3600 | GT 740 | 850 EVO [5] Ryzen 3600 | Geforce 405 | 850 EVO (alla är i bruk)

Permalänk
Medlem

AI är bara en fluga.

Permalänk
Medlem
Skrivet av torbjorn_75:

AI är bara en fluga.

Som den är nu Ja.

Tekniken är definitivt inte mogen än. Minst 5år till i utveckling/forskning behövs, innan AI blir riktigt användbar till något vettigt.

Permalänk
Skrivet av raxxor:

Som den är nu Ja.

Tekniken är definitivt inte mogen än. Minst 5år till i utveckling/forskning behövs, innan AI blir riktigt användbar till något vettigt.

För egen del använder jag Ai varje dag som ett stöd i utvecklingen. Skulle säga att den sparar i alla fall ett par timmars jobb varje vecka.

Permalänk
Medlem
Skrivet av themoggen:

För egen del använder jag Ai varje dag som ett stöd i utvecklingen. Skulle säga att den sparar i alla fall ett par timmars jobb varje vecka.

Exakt, så använder jag den också.

Jag tror att använder chatGPT på annat sätt, än så länge.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem
Skrivet av sesam2k:

Det är nyhet för mig, tack! Men helt makalöst egentligen.

Jag tänkte på det här häromveckan, men har inte haft tid att svara. Här är två länkar till en historia där en advokat drabbats av att chatGPT fabulerar:

Från: https://techlaw.se/varlden-amerikansk-advokat-fragar-chatgpt-....

Citat:

Advokaten i fråga lät ChatGPT delvis förbereda sitt prejudikat och granskade inte själv resultatet. Aviancas advokater studerade inlagan och blev snabbt misstänksamma, namn på personer och företag, domstolar verkade korrekta, men varje vidare granskning visade att fallen inte existerade på riktigt. Aviancas advokater bad därför om att få dokumenten i fråga skickade till sig. Kärandens advokat skickade då underlag till påstått prejudikat, som också hittats på av ChatGPT, och som innehöll hänvisningar till ytterligare påhittade rättsfall. Aviancas advokater blev misstänksamma, varpå det visade sig att ChatGPT fritt fantiserat ihop nya fall och gett dem ett sken av äkthet, inklusive de vanliga lärda förklaringarna av nationell lag, citat, diarienummer och en diskussion om när det finns en förmodad suspensiv effekt när preskriptionstiden automatiskt avbryts. På förfrågan medgav kärandens advokat att han fått hjälp i sitt arbete av ChatGPT.

Advokaten riskerar nu ytterligare åtgärder, även om han omedelbart erkänt sitt misstag för domaren och lovat att kontrollera framtida sökningar själv. Domstolen bedömde dock inlämningen som ett möjligt försök från advokaten att lura domstolen med förfalskad information, och har beslutat att hålla en förhandling den 8 juni 2023 för att besluta om ytterligare åtgärder.

Från https://computersweden.idg.se/2.2683/1.779290/advokat-anvande...

Citat:

En advokat i New York är i blåsväder efter att han låtit Chat GPT ta fram ”fakta” i ett mål rörande en person som säger sig ha blivit skadad i samband med en flygresa.

I en tiosidig skrivelse hänvisade advokaten till sex tidigare domslut i liknande mål, men en närmare kontroll visar att Chat GPT fabricerade samtliga av dessa fall.

Advokaten säger till sitt försvar att han frågat Chat GPT om fallen är äkta och när chattbotten svarade att informationen hämtats från databaserna Westlaw och Lexisnexis valde han att ta med dem i skrivelsen.

Advokaten riskerar nu att bli av med sin licens, rapporterar The New York Times.

Man skall använda verktyg med försiktighet.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|