Ny rapport varnar för smart-TV-apparater: ”En trojansk häst”

Permalänk
Medlem
Skrivet av Det Otroliga Åbäket:

LLM:en har ju i bästa fall korrekt sammanfattat vad som stod på företagens egna webbsidor, men en LLM kan inte betraktas som en auktoritet. Att hänvisa till en säger inte ”jag har frågat någon som verkligen vet”, utan ”jag orkade inte kolla upp detta själv”.

Mycket av det tekniska jag har använt LLM till under dagen har visat sig stämma. Men jag antar att det är i mer komplexa ämnen där svaret inte är svart eller vitt som det blir problem? Jag upplever dock att även där är det relativt mycket som visar sig stämma.

Att fråga någon som verkligen vet är kanske inte alltid heller så enkelt om man inte har direkt tillgång till en sådan person?

Men, jag håller som sagt med om att det inte är bra att lita blint på allt som kommer ur LLM:en. Men att den häver ur sig vad som helst är inte något jag känner att jag har upplevt. Brukar säga att den inte har information i så fall. Kanske dock blir så om man verkligen försöker ställa ”den” mot väggen.

Visa signatur

• Fractal Design North | ASUS ROG Strix B650E-F | Ryzen 7 7800X3D | Radeon RX 7900 GRE | 64 GB RAM | Windows 11
• Mac mini | M4 Pro | 48 GB RAM | 1 TB | macOS 15 Sequoia
• MacBook Pro 14" | M2 Max | 96 GB RAM | 1 TB | macOS 15 Sequoia

Permalänk
Skrivet av star-affinity:

Mycket av det tekniska jag har använt LLM till under dagen har visat sig stämma. Men jag antar att det är i mer komplexa ämnen där svaret inte är svart eller vitt som det blir problem? Jag upplever dock att även där är det relativt mycket som visar sig stämma.

Att fråga någon som verkligen vet är kanske inte alltid heller så enkelt om man inte har direkt tillgång till en sådan person?

Men, jag håller som sagt med om att det inte är bra att lita blint på allt som kommer ur LLM:en. Men att den häver ur sig vad som helst är inte något jag känner att jag har upplevt. Brukar säga att den inte har information i så fall. Kanske dock blir så om man verkligen försöker ställa ”den” mot väggen.

En LLM har sina användningsområden om du arbetar inom dess begränsningar. Att generera boilerplate-kod under förutsättning att du kan beskriva exakt vad den ska göra inom ett område som var tillräckligt vanligt innan slutdatumet för dess huvudsakliga träning, eller att sammanfatta mindre viktiga textmassor "bra nog" för många vardagliga ändamål, eller att göra ett mail mer formellt eller mer artigt, är några exempel.
Men LLM:er lider av ett antal begränsningar som helt enkelt gör dem olämpliga som källa för faktauppgifter som behöver bli rätt. Och det är varför jag protesterar mot användning av dem som någon form av auktoritet inom vilket som helst ämne. LLM:er kan bokstavligen inte resonera på riktigt, de har inget omdöme, och de kan inte på egen hand utvärdera trovärdighet i data de matats med. Flera av dem har också tränats att hellre hitta på ett svar än att erkänna att de inte vet.
Att använda dem som naiva assistenter är däremot helt i sin ordning, så länge man själv validerar deras svar och korrigerar eventuella felaktigheter. Det finns flera situationer där detta i praktiken kan bespara en tid utan att leda till ett sämre resultat, men det finns också en hel del lägen där det helt enkelt inte är värt det.