Premiär! Fyndchans i SweClockers Månadens Drop

Myndigheters AI-system ska granskas för jämställdhet

Permalänk
Medlem
Skrivet av anon236072:

Skratta eller gråta? 😂
En AI om något har ju 0 ”fördomar” & borde va det optimala för ”jämställt” bemötande.
Men det är väl som vanligt i Sverige, data är bara ”bra” om den visar ”rätt”.

En AI har exakt samma fördomar som den data man skickar in i systemet.

Permalänk
Medlem

Efter att ha läst artikeln tycker jag det är ett intressant projekt att satsa på. Helt uppenbart finns det mängder av fallgropar, och handläggare vi har idag kanske inte är att föredra längre om de lyckas få detta på plats?

Permalänk
Medlem
Skrivet av anon236072:

Skratta eller gråta? 😂
En AI om något har ju 0 ”fördomar” & borde va det optimala för ”jämställt” bemötande.
Men det är väl som vanligt i Sverige, data är bara ”bra” om den visar ”rätt”.

Utan data, ja (vilket visserligen gör den värdelös). Men en AI behöver ju lära sig på något sätt och detta genom att mata den data. Och om du skriver till den kommer den mest troligt lära sig utav det också. Som folk påpekat ovan har det funnits AIs som har varit lätta att påverka.

Om AIn då matas med data som anses icke jämställd kommer den sluta upp som det.

Permalänk
Medlem

Nu beror min inställning till hur man gör detta. För vi har flertalet gånger sett att självlärande AI ännu inte är optimal ännu, och en helt logisk AI inte skulle fungera optimalt då vi människor inte är logiska alla gånger.

Och skulle det visa sig att en AI lär sig att dömma vissa innan baserat på att den sniffar upp data om dig, så är ju vinsten med den ganska liten. Ska man glra det för att den ska få ett politiskt accepterat resultat är det däremot inget bra. Men om vi lär den att förbli helt opartisk vore väl det bra?

Visa signatur

Laptop: Asus UX303ln
Intel Haswell Core i7-4510U CPU / 8 GB DDR3 / 256 GB SSD / 2GB Nvidia 840M

Permalänk
Medlem
Skrivet av Sushoz:

Och minns ni Microsoft Tay? På basis av Tay känns detta ju högst relevant, med tanke på hur lätt hon kunde manipuleras.

Riktigt tragiskt att MS beslöt att koppla bort Tay, en sådan bot hade kunnat ge oss så mycket information om hur språk och argumentation utvecklas. Men är väl som vanligt, så fort som någon säger någonting kontroversiellt så skiter folk på sig.

Permalänk
Medlem

Här får ni en algoritm som inte kräver AI:

1. Starta ett företag baserat på viktiga nyckelord som AI, jämställdhet, antirasism, värdebaserat etc.
2. Sök pengar från typ 10 olika myndigheter och organisationer, alla skattefinansierade på ett eller annat sätt så allt är skattepengar.
3. Hyr dyra fina lokaler i centrala Stockholm.
4. Skaffa tjänstebilar, höga löner och åk på diverse konferenser etc.
5. Bidra till enstaka Aftonbladetartiklar ett par gånger om året så det ser ut som man gör någonting.
6. Sitt mest och gör inget vettigt med din höga lön på skattebetalarnas bekostnad.

Bara ett i mängden av alla sätt att mjölka skattepengar för den som har rätt kontakter..

Permalänk
Medlem
Skrivet av CubaCola:

Fast om AI:n ser ett mönster i att en grupp av människor alltid gör på sätt x, är det då fördomar?
AI:n har ju inte några förutfattade meningar om någon innan den börjar lära sig.

Nej en AI kan inte vara fördomsfull, men den kan ta besult som vi människor finner fördomsfulla som resultat av vilken data AI:n blivit tränad på.

Som exempel om AI:n blivit matad data som bygger på att handläggarna tagit beslut baserat på att de ogillar en viss typ av folk (exempelvis inhemska medborgare). Detta leder till att inlärningsalgoritmen lägger till grund att AI:n tar beslut som kan anses fördomsfullt sett till makthavandets åsikter om fördommar.

Visa signatur

You have earned my respect and my friendship.

Permalänk
Medlem

Återigen verkar många som kommenterar här sakna förståelse för vad AI och maskininlärning innebär. Att tro att något är "perfekt" och "sant" bara för att det genererats av en AI. Det har tagits upp flera exempel i tråden på varför detta inte är fallet och jag tycker att Microsofts chatbot Tay är ett tydligt exempel. En AI är otroligt känslig skevhet i träningsdata den lär sig av samt de begynnelsevillkor modellen matas med.

Jag arbetar inte själv med AI, men på min arbetsplats (sjukhus) så finns många liknande valideringsprogram som del av AI-projekt. I ett försök till illustrativt fiktivt exempel:

"AI för cancerbehandling diskriminerar"
En prognostisk AI som skall utvärdera nyttan med en cancerbehandling skall skapas. Vi har så kallad uppmärkt data (labeled data) av patienter och deras bakgrund, deras cancersjukdomsprofil, behandlingar. Nu råkar det vara så att i den träningsdata vi lär AI:n med så råkar låginkomsttagare svara sämre på behandlingen. I slutändan så väljer systemet att behandla rika människor och låta fattiga dö.

Vad systemet inte såg vara att rika människor i högre grad hade högre utbildning och lättare kunde förstå både hur de skulle ta medicinen och dessutom var förekomsten av rökare mycket högre bland de fattigare. Rökning gör denna behandling mindre effektiv. Dessa två faktorer förklarade hela skillnaden i prognos. AI:n hade fattat "rätt" beslut efter den träningsdata modellerna formats ur, men besluten var helt felaktiga då den ej kunnat skilja på korrelation och kausalitet.

-----

Försök överföra mitt exempel på andra sammanhang så kanske ni inser problemen. Om inte så visa lite ödmjukhet för er okunskap. Denna typ av utredning som beskrivs i artikeln är inte kontroversiell i sig.

Permalänk
Inaktiv
Skrivet av Nyheten:

I USA har man uppmärksammat att botar som skulle svara på frågor snabbt blev väldigt rasistiska och sexistiska.

Based.

Skrivet av Lena Ag, generaldirektör Jämställdhetsmyndigheten:

Medborgarna ska kunna lita på att staten bemöter dem lika.

Heh. För sent.

Skrivet av Nyheten:

Några av de automatiserade AI-systemen, som kallas "botar", lär sig av data som samlas in över tid och använder den för att ge handläggare bättre beslutsunderlag. Här tar Jämställdhetsmyndigheten lärdom från USA, där AI-botar som tränats med ojämställd data kommit till olika slutsatser baserat på användarens hudfärg eller kön.

Åh nej... Tänk om de hade haft rätt data istället för fel data. Då hade botarna minsann lärt sig hur verkligheten ska se ut!

Skrivet av Anna Felländer:

Att algoritmer lär sig på historiska data riskerar att backa jämställdhetsarbetet. Det får inte hända.

Vad hon säger är att fakta in inte får bli fakta ut. Hon vill hellre ha skräp in och skräp ut för att få fram Utopia.

Alla djur är jämlika.

Permalänk
Medlem

Hur definierar man "ojämställd data"? Data är data. Menar man att det funnits snedvridning i insamlingen eller inmatningen av denna data, eller är det så att datan samlades in korrekt, men inte riktigt passade?

Med andar ord, är "problemet" att datan inte stämmer med den _faktiska_ eller den _önskade_ verkligheten?

Permalänk
Medlem

Men alltså va? En AI ser ju mönster, den skiter i genus och härkomst. Så blir en viss grupp behandlat annorlunda av systemet så finns det en anledning!

Permalänk
Medlem
Skrivet av CubaCola:

Fast om AI:n ser ett mönster i att en grupp av människor alltid gör på sätt x, är det då fördomar?
AI:n har ju inte några förutfattade meningar om någon innan den börjar lära sig.

Alltid eller oftare? Stor skillnad. I vissa fall kan det säkert vara en ond cirkel också, lite som alla sociala bubblor där konspirationsteorier och annat frodas.

Permalänk
Medlem
Skrivet av Snyft:

Det är bättre att fokusera på bilbrännare och stenkastare än gräs rökare.

Det är bättre att "sätta dit" alla tre kategorier du nämner. De har olika straffskalor så det är där man hanterar skillnaderna.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Moderator
Testpilot

Jag noterar att diskussionen snabbt har eskalerat till att en AI är absolut objektiv, vilket är sant till en viss del, men som så ofta är fallet med lekmannamässiga-observationer så är det lätt att trilla ner i Dunning-Kruger-problematik.

En AI är tränad med hjälp av data som är producerad av människor, som läser vårat sätt att kommunicera på och våra inneboende partiskhet som återspeglas i sättet vi lagrar in information.

Läs gärna denna blänkaren om denna problematiken från Mckinsey som har tittat in på detta mer i detalj. Länk

Som jag tolkar det så är det just detta som är problematiken;

Underlying data are often the source of bias
Underlying data rather than the algorithm itself are most often the main source of the issue. Models may be trained on data containing human decisions or on data that reflect second-order effects of societal or historical inequities. For example, word embeddings (a set of natural language processing techniques) trained on news articles may exhibit the gender stereotypes found in society.

Underlying data are often the source of bias
Underlying data rather than the algorithm itself are most often the main source of the issue. Models may be trained on data containing human decisions or on data that reflect second-order effects of societal or historical inequities. For example, word embeddings (a set of natural language processing techniques) trained on news articles may exhibit the gender stereotypes found in society.

Models may be trained on data containing human decisions or on data that reflect second-order effects of societal or historical inequities.

Bias can also be introduced into the data through how they are collected or selected for use. In criminal justice models, oversampling certain neighborhoods because they are overpoliced can result in recording more crime, which results in more policing.

Data generated by users can also create a feedback loop that leads to bias. In Latanya Sweeney’s research on racial differences in online ad targeting, searches for African-American-identifying names tended to result in more ads featuring the word “arrest” than searches for white-identifying names. Sweeney hypothesized that even if different versions of the ad copy—versions with and without “arrest”—were initially displayed equally, users may have clicked on different versions more frequently for different searches, leading the algorithm to display them more often.

A machine learning algorithm may also pick up on statistical correlations that are societally unacceptable or illegal. For example, if a mortgage lending model finds that older individuals have a higher likelihood of defaulting and reduces lending based on age, society and legal institutions may consider this to be illegal age discrimination.

Dold text
Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Det är väl en viktig sak att göra, men jag har verkligen noll förtroende till den myndigheten. Den datan som AI tränas på är inte perfekt, men jag tror inte den myndigheten kan avgöra vad som är sant eller falskt bättre.

Visa signatur

i5-7600k . GTX 1080 . 16 GB

Permalänk
Medlem
Skrivet av Dinoman:

Jag noterar att diskussionen snabbt har eskalerat till att en AI är absolut objektiv, vilket är sant till en viss del, men som så ofta är fallet med lekmannamässiga-observationer så är det lätt att trilla ner i Dunning-Kruger-problematik.

En AI är tränad med hjälp av data som är producerad av människor, som läser vårat sätt att kommunicera på och våra inneboende partiskhet som återspeglas i sättet vi lagrar in information.

Läs gärna denna blänkaren om denna problematiken från Mckinsey som har tittat in på detta mer i detalj. Länk

Som jag tolkar det så är det just detta som är problematiken;

Underlying data are often the source of bias
Underlying data rather than the algorithm itself are most often the main source of the issue. Models may be trained on data containing human decisions or on data that reflect second-order effects of societal or historical inequities. For example, word embeddings (a set of natural language processing techniques) trained on news articles may exhibit the gender stereotypes found in society.

Underlying data are often the source of bias
Underlying data rather than the algorithm itself are most often the main source of the issue. Models may be trained on data containing human decisions or on data that reflect second-order effects of societal or historical inequities. For example, word embeddings (a set of natural language processing techniques) trained on news articles may exhibit the gender stereotypes found in society.

Models may be trained on data containing human decisions or on data that reflect second-order effects of societal or historical inequities.

Bias can also be introduced into the data through how they are collected or selected for use. In criminal justice models, oversampling certain neighborhoods because they are overpoliced can result in recording more crime, which results in more policing.

Data generated by users can also create a feedback loop that leads to bias. In Latanya Sweeney’s research on racial differences in online ad targeting, searches for African-American-identifying names tended to result in more ads featuring the word “arrest” than searches for white-identifying names. Sweeney hypothesized that even if different versions of the ad copy—versions with and without “arrest”—were initially displayed equally, users may have clicked on different versions more frequently for different searches, leading the algorithm to display them more often.

A machine learning algorithm may also pick up on statistical correlations that are societally unacceptable or illegal. For example, if a mortgage lending model finds that older individuals have a higher likelihood of defaulting and reduces lending based on age, society and legal institutions may consider this to be illegal age discrimination.

Dold text

Håller med dig till fullo. Försökte själv med ett exempel på en annan aspekt med kass träningsdata, men du hade en annan bra vinkel på det hela.

Av erfarenhet från tidigare trådar så är denna nyhet är en klassisk tickande bomb. Dels innehåller den AI - häftigt och svårbegripligt för många, dels jämställdhetsfrågan - många män på forumet som kanske inte alltid fått träning i att få sina åsikter bemötta i verkligheten. Blir ledsen av att se kombinationen dålig bildningsgrad, självsäkerhet och rasism/allmän unkenhet i tråden.

Permalänk
Medlem

För de som inte ser detta som seriöst rekommenderar jag er att läsa Weapons of Math Destruction. Läste den som en del i min Big Data kurs på institutionen för Applied IT och just jämställdhet är ett av de största problemen med AI och liknande system som kan få ödesdigra konsekvenser.

Permalänk

Bra. Man får inte kränka sina medmänniskor och samma ska gälla AI. Ser inga konstigheter alls faktiskt.

Permalänk
Medlem
Skrivet av anon236072:

Skratta eller gråta? 😂
En AI om något har ju 0 ”fördomar” & borde va det optimala för ”jämställt” bemötande.
Men det är väl som vanligt i Sverige, data är bara ”bra” om den visar ”rätt”.

En AI baserad på machine learning har ENDAST fördommar.

Permalänk
Medlem
Skrivet av gothxx:

En AI baserad på machine learning har ENDAST fördommar.

Hah! Detta är en av de bästa sammanfattningarna av Machine learning jag har läst!

Är ju dock inte ovanligt med tron att de inte har det. Därav de katastrofer man sett i USA tidigare. Bra att det finns mer medvetenhet hos makthavare nu.

Permalänk
Medlem

I'll make my own AI with strippers and blackjack..

Ibland är verkligheten inte politiskt korrekt, men det får man inte säga..

Permalänk
Medlem

AI: "Män är överlägsna kvinnor i allt"

Permalänk
Medlem
Skrivet av Thor:

Nej en AI kan inte vara fördomsfull, men den kan ta besult som vi människor finner fördomsfulla som resultat av vilken data AI:n blivit tränad på.

Som exempel om AI:n blivit matad data som bygger på att handläggarna tagit beslut baserat på att de ogillar en viss typ av folk (exempelvis inhemska medborgare). Detta leder till att inlärningsalgoritmen lägger till grund att AI:n tar beslut som kan anses fördomsfullt sett till makthavandets åsikter om fördommar.

Håller själv på att försöka lära mig om AI med hjälp av en Nvidia Jetson-modul, (och en Google Coral om jag får den någon gång), men har märkt att det är fruktansvärt svårt att lära en AI.
Den kan visa rätt resultat 99 gånger, och sedan 100 gången så tolkar den något helt fel.

Ingen som jobbar på någon av myndigheterna som kan berätta hur "inlärningen" går till?
verkar ju vara jättekomplext arbete, har svårt att se hur det är tänkt att fungera.
Det är ju liksom människors liv de här besluten handlar om på tex försäkringskassan, och det blir ju en jäkla skillnad mot en AI som används av en chatbot.
Eller ser man så slapphänt på detta att det inte spelar så stor roll? det har jag svårt att tro iaf.

Dessutom bör man väl dessutom studera faktan man ska använda för att lära in AI:n och inte bara ta första bästa dokument som finns.
Och då lär väl inte "fel värderingar" finnas i datan om även 3:e part granskar dokumentet innan inlärning.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av Drenmi:

Hur definierar man "ojämställd data"? Data är data. Menar man att det funnits snedvridning i insamlingen eller inmatningen av denna data, eller är det så att datan samlades in korrekt, men inte riktigt passade?

Med andar ord, är "problemet" att datan inte stämmer med den _faktiska_ eller den _önskade_ verkligheten?

Beror lite på vad det är för typ av data. Typiskt är väl problemet att den insamlade datan inte är representativ för vad AIn ska användas för. Så ja, snedvriden insamling.

Andra problem kan vara tex för en AI som ska lära sig att skriva, att den lär sig av mänskliga formuleringar, och därmed ärver samma strukturella fördommar som vi har. Extra tydligt blir det ju om insamlingen dessutom är skev.

Slutligen är ett problem att AIn lär sig av hur samhället historiskt varit baserat på input data. Detta kan ju då motverka positiva förändringar.

Permalänk
Medlem
Skrivet av CubaCola:

Håller själv på att försöka lära mig om AI med hjälp av en Nvidia Jetson-modul, (och en Google Coral om jag får den någon gång), men har märkt att det är fruktansvärt svårt att lära en AI.
Den kan visa rätt resultat 99 gånger, och sedan 100 gången så tolkar den något helt fel.

Ingen som jobbar på någon av myndigheterna som kan berätta hur "inlärningen" går till?
verkar ju vara jättekomplext arbete, har svårt att se hur det är tänkt att fungera.
Det är ju liksom människors liv de här besluten handlar om på tex försäkringskassan, och det blir ju en jäkla skillnad mot en AI som används av en chatbot.
Eller ser man så slapphänt på detta att det inte spelar så stor roll? det har jag svårt att tro iaf.

Dessutom bör man väl dessutom studera faktan man ska använda för att lära in AI:n och inte bara ta första bästa dokument som finns.
Och då lär väl inte "fel värderingar" finnas i datan om även 3:e part granskar dokumentet innan inlärning.

Snabbsvar från "top of my head", kan vara så att även om den har totalfel 1% av fallen så är det ändå bättre än mänskliga handläggare som har högre grad av fel. Däremot känns det ju som att när en AI gör fel så är det helt uppenbart när det ofta(men inte alltid) är mycket mer komplicerat.

Permalänk
Medlem
Skrivet av NutCracker:

AI: "Män är överlägsna kvinnor i allt"

AI: "Vatten är vått"
🤔

Visa signatur

| Fractal Design Define Mini C | MSI Z490M MPG GAMING EDGE | Corsair RM750X 750W v2 | Intel Core i5 10600K |
|GIGABYTE RTX 3070 AORUS Master |Corsair 32GB DDR4 3200MHz CL16 |
| Asus Strix Raid DLX | Acer 27" Predator XB271HK G-Sync 4K IPS | Tobii 4C |
| LG OLED55B6V | nVidia Shield V2 |

Permalänk
Medlem
Skrivet av Thor:

Nej en AI kan inte vara fördomsfull, men den kan ta besult som vi människor finner fördomsfulla som resultat av vilken data AI:n blivit tränad på.

Som exempel om AI:n blivit matad data som bygger på att handläggarna tagit beslut baserat på att de ogillar en viss typ av folk (exempelvis inhemska medborgare). Detta leder till att inlärningsalgoritmen lägger till grund att AI:n tar beslut som kan anses fördomsfullt sett till makthavandets åsikter om fördommar.

Jag förstår vad du menar. Jag skulle dock hävda att det är inlärningsalgoritmen som inte har fördommar, och att AIn syftar på den tränade algoritmen som därmed absolut kan få fördommar om träningsdatan är dålig.

Och som sidonotering är det absolut möjligt att avsiktligt eller oavsiktligt koda fördomsfulla AI och även inlärningsalgoritmer. Inget vi bör blint lita på att de inte är fördomsfulla, men det är en mycket mindre risk än att det är en konsekvens av datan.

Permalänk
Medlem
Skrivet av gothxx:

En AI baserad på machine learning har ENDAST fördommar.

Precis så. Många tycks mena att maskinen inte gör mänskliga fel, men det är precis tvärtom. Mönstermatchning, en oumbärlig del i mänsklig och annan intelligens, är det som maskininlärning bygger på och också det som ansvarar för människors fördomar. Men mänsklig intelligens har också förmågan att inse när fördomarna inte räcker till, och metoder för att söka rätt på mer relevant information, något som maskinerna inte har.

Vi lär oss hela tiden att "människan är inte så smart som vi tror, vi har en massa fördomar", men missar att vi är de enda varelser vi känner till som kunnat tänka bortom våra fördomar, genom t.ex. abstrakt tänkande (dvs det vi i dagligt tal kallar intelligens).

Noterar också att artikeln är missvisande. Exemplet med chatbotar som beter sig sexistiskt eller rasistiskt nämns endast som ett exempel i källorna, för att förklara principen. Från Ny Teknik-länken:

Citat:

Robotarna, eller botarna som de också kallas, lär sig av den data som de får in, och kan hjälpa till att sammanställa beslutsunderlag för handläggarna. Men det har visat sig att det kan finnas en baksida.

– I USA har man uppmärksammat att botar som skulle svara på frågor snabbt blev väldigt rasistiska och sexistiska.

(min fetning)

Det handlar alltså om "bemötande" i form av vilka beslut myndigheterna tar, beslut som kan påverka t.ex. om du får bostadsbidrag, sjukersättning eller blir skönstaxerad. Inte om huruvida man blir kränkt av en chatbot när man ställer frågor.

Visa signatur

Här hade jag en historik sen 1990-talet, men den blev tillslut för lång. Aktiva maskiner 2022-framåt:
Work/Play/Everythingstation: AMD Epyc 7443p, Pop OS host, Win10 + Linux guests (KVM/Qemu)
Work/Play nr 2: AMD Phenom II 1090t, Debian + Win 10 (dual boot)
Server x3: Epyc 7252 (TrueNAS Core), Atom 2550 (FreeBSD, backup), Opteron 6140 (Ubuntu, off prem backup)
Retrohörna under uppbyggnad: Dual Pentium Pro 200MHz, Pentium P54C 90MHz, Gravis Ultrasound MAX

Permalänk
Medlem

Nej jag vill ej betala för detta, gör skatten rättvis. Vill kunna bocka ur såna här genusprojekt från min skattesedel.

Eg helt sjukt att man med staten INTE kan rösta med plånboken. 76% Marginalskatt trots att värnskatten togs bort, https://timbro.se/ekonomi/skatter/efter-varnskatten/

Permalänk
Medlem
Skrivet av Snyft:

Jämställdhet vill inte ens feminister ha och med allt annat som försöks gömmas bakom ridån känns detta väldigt olustigt.

Det finns absolut många självutnämnda feminister som inte alls är ute efter jämställdhet. Men bara för att det finns idioter i samhället betyder inte det att det inte är värt att försöka förbättra samhället tycker jag.