Jag vill på ett semantikpedantiskt vis lyfta ordet "faktafel" i sammanhanget LLM:er. Det är verkligen att lyfta "LLM:er till skyarna" att föreslå att de ens skulle kunna generera "fakta(fel)" från första början som om det vore någon emergent effekt av all träningsdata och sedan finjusteringarna efteråt som om det fanns någon slags omvärldsförståelse från LLM:ens sida vilket det inte gör. Enklaste exemplet är klisterförslaget för pizzaingredienser.
LLM:er genererar endast nästa statistiskt sannolika ord baserat på finjusterat träningsdata i kombination med ens prompt. Även uppdaterade modeller som nu kan emulera vad som kan verka som "fakta" (t.ex. fråga om faktamässigt talat något lands huvudstad är en huvudstad som det inte är och den då svarar i stil med, "Nej, Stockholm är inte Tysklands huvudstad") så är det ändå bara finjusterad träningsdata vilket får LLM:en att prioritera ordföljder vilket emulerar när någon rättar någon annans sakpåstående.
Varför jag ens lyfter detta till synes sidospår är för att sprida budskapet att LLM:er fortfarande inte är "levande", "självmedvetna" eller har någon tillfällig "agens" oavsett hur mycket deras mycket "mänskliga" ordföljder kan få en för ett ögonblick att ibland tycka det om dem. De är bara supereffektiva (kanske inte energieffektiva dock) på att generera ordföljder vilket påminner om människors ordföljder. Och det är ju inte förvånande för vart finns det massor av ordföljder skapade av människor? På internet och i flera terabytes av e-böcker *host* Meta *host*.
Detta innebär att fatala faktafel på arbetsplatser är egentligen 100 % slutanvändarens ansvar eftersom LLM:er har i princip samma nivå av "vilja att ge en fakta" som när du kastar tärningar med olika ord på varje tärnings olika sidor för att bygga en "faktamässig mening". LLM:er är självfallet mer komplexa men har minst lika hög "mänsklighetsnivå" som tärningar med olika ord på deras sidor.
Hm, jag börjar nästan glömma bort vad jag egentligen ville ha sagt! TLDR; Personligen talat tycker jag att det är lite ansvarsfriskrivning av att säga att LLM:er kan göra "snedsteg" som om de ens "försökte göra rätt från första början". Lite som att säga att tärningarna i Yatzy "gjorde snedsteg och gav mig inte sex sexor som jag angav när jag kastade dem!". LLM:er producerar statistiskt sannolika mänskliga ordföljder.
Det är vi människor som sedan gör bedömningar huruvida något är "faktamässigt (in)korrekt". Även "hallucinationer" är en alldeles för generös antropomorfisering av LLM:er. Det är vi människor som gör bedömningen att "Nu hallucinerar den!", inte att LLM:en "gjorde sitt bästa men blev hög och började svamla!".
Btw, det här är inte riktat mot någon person eller så utan endast sprida budskapet att inte antropomorfisera LLM:er. Det är oerhörda användbara verktyg när de används med förståelse för deras begränsningar, men endast det. Jag har också på senast tid stört mig på uttrycket, "AI kanske snor våra jobb" medan det korrekta uttrycket vore, "Vi kanske sparkas för någon ovanför oss tror att AI kan göra jobbet kostnadseffektivare!" (så tillvida inte LLM:en faktiskt kan göra det via konfigurerad MCP).
Jag önskar Dig fortsatt trevlig helg!
Mvh,
WKF.