Vi l?r dig om maskinbias, vilket inneb?r felaktiga f?ruts?gelser i maskininl?rningsmodeller p? grund av systematiska fel. Det kan orsakas av begr?nsad tr?ningsdata eller m?nskliga fel. Maskinbias p?verkar viktiga beslut inom kreditbed?mning och anst?llning.
Vi f?rklarar hur man uppt?cker och f?rhindrar bias genom diversifiering av data och regelbunden granskning av modeller.
Vad betyder maskinbias?
Maskinbias ?r tendensen hos en maskininl?rningsmodell att g?ra felaktiga eller or?ttvisa f?ruts?gelser eftersom det finns systematiska fel i ML-modellen eller de data som anv?nds f?r att tr?na modellen.
Bias i maskininl?rning kan orsakas av en m?ngd olika faktorer. N?gra vanliga orsaker ?r
- Begr?nsad m?ngd tr?ningsdata.
- Att v?lja en maskininl?rningsmodell som inte ?r v?l l?mpad f?r problemet eller som inte har tillr?cklig kapacitet f?r att f?nga komplexiteten i data.
- M?nsklig partiskhet som introduceras i datainsamlingen, m?rkningen eller funktionstekniska processer.
Maskinbias ?r ofta resultatet av att en datavetare eller ingenj?r ?verskattar eller underskattar vikten av en viss hyperparameter under funktionsteknik och den algoritmiska inst?llningsprocessen. En hyperparameter ?r en maskininl?rningsparameter vars v?rde v?ljs innan inl?rningsalgoritmen tr?nas. Inst?llning ?r processen att v?lja vilka hyperparametrar som minimerar en inl?rningsalgoritms f?rlustfunktioner och ger de mest exakta utdata.
Det ?r viktigt att notera att maskinbias kan anv?ndas f?r att f?rb?ttra tolkningsbarheten hos en ML-modell i vissa situationer. En enkel linj?r modell med h?g bias ?r t.ex. l?ttare att f?rst? och f?rklara ?n en komplex modell med l?g bias.
N?r en maskininl?rningsmodell ska g?ra f?ruts?gelser och fatta beslut kan dock bias leda till att maskininl?rningsalgoritmer producerar suboptimala resultat som potentiellt kan vara skadliga. Detta ?r s?rskilt sant n?r det g?ller kreditbed?mning, anst?llning, domstolssystemet och h?lso- och sjukv?rd. I dessa fall kan partiskhet leda till or?ttvis eller diskriminerande behandling av vissa grupper och f? allvarliga konsekvenser i den verkliga v?rlden.
Techopedia f?rklarar maskinbias
Bias i maskininl?rning ?r ett komplicerat ?mne eftersom bias ofta ?r sammanfl?tat med andra faktorer som datakvalitet. F?r att s?kerst?lla att en ML-modell f?rblir r?ttvis och opartisk ?r det viktigt att kontinuerligt utv?rdera modellens prestanda i produktionen.
Maskininl?rningsalgoritmer anv?nder det de l?rt sig under tr?ningen f?r att g?ra f?ruts?gelser om ny input. N?r vissa typer av information felaktigt tilldelas st?rre – eller mindre – betydelse ?n de f?rtj?nar kan algoritmens utdata bli partisk.
Till exempel anv?nds maskininl?rningsprogram av domstolar i vissa delar av v?rlden f?r att rekommendera hur l?nge en d?md brottsling ska sitta i f?ngelse. Studier har visat att n?r data om en brottslings ras, utbildning och civilst?nd viktas f?r h?gt ?r det sannolikt att algoritmens resultat blir partiskt och att programvaran kommer att rekommendera v?sentligt olika straff f?r brottslingar som har d?mts f?r samma brott.
Exempel p? maskinell partiskhet
Maskinpartiskhet kan yttra sig p? olika s?tt, t.ex:
- Prediktiv bias: modellen ?r mer ben?gen att g?ra specifika f?ruts?gelser f?r vissa demografiska grupper av individer.
- Representationsbias: under tr?ningen ?r vissa demografiska data underrepresenterade eller uteslutna.
- M?tningsbias: modellen tr?nas med hj?lp av otillf?rlitliga, ofullst?ndiga eller skeva data.
- Algoritmisk bias: modellens utformning eller den algoritm som anv?nds f?r att tr?na den ?r naturligt partisk p? grund av m?nskliga misstag.
H?r ?r n?gra exempel p? nyheter d?r personer eller f?retag har skadats av AI:
En unders?kning fr?n 2016 av ProPublica visade att COMPAS, ett AI-system som antagits av delstaten Florida, var dubbelt s? sannolikt att flagga svarta ?talade som framtida ?terfallsf?rbrytare som vita ?talade. Detta v?ckte fr?gor om AI:s anv?ndning inom polisv?sende och straffr?tt.
2018 rapporterades det att Amazons teknik f?r ansiktsigenk?nning, s? kallad Rekognition, hade en h?gre andel felaktigheter f?r kvinnor med m?rkare hudf?rg. Detta v?ckte farh?gor om att tekniken skulle kunna anv?ndas p? s?tt som kan skada marginaliserade grupper.
?r 2020 uppt?cktes att en chattbot som anv?ndes av Storbritanniens nationella h?lsov?rdsmyndighet (NHS) f?r att triagera patienter under covid-19-pandemin gav felaktig information och h?nvisade m?nniskor till att s?ka v?rd p? fel st?llen. Detta v?ckte fr?gor om s?kerheten i att anv?nda AI f?r att fatta medicinska beslut.
?r 2021 visade en unders?kning av The Markup att l?ngivare var 80 % mer ben?gna att neka bostadsl?n till m?rkhyade personer ?n till vita personer med liknande ekonomiska egenskaper. Detta v?ckte oro f?r hur black box AI-algoritmer anv?ndes i godk?nnanden av hypoteksl?n.
?r 2022 visade det sig att iTutorGroup, en samling f?retag som tillhandah?ller engelskspr?kiga handledningstj?nster till studenter i Kina, hade programmerat sitt rekryteringsprogram online f?r att automatiskt avvisa kvinnliga s?kande som var 55 ?r eller ?ldre och manliga s?kande som var 60 ?r eller ?ldre. Detta v?ckte farh?gor om ?ldersdiskriminering och ledde till att den amerikanska j?mst?lldhetsmyndigheten EEOC (Equal Employment Opportunity Commission) l?mnade in en st?mningsans?kan.
Hur man uppt?cker maskinbias
Det finns flera metoder som kan anv?ndas f?r att uppt?cka maskinpartiskhet i en maskininl?rningsmodell:
- Dataanalys: De data som anv?nds f?r att tr?na modellen analyseras f?r att uppt?cka eventuella k?llor till partiskhet, t.ex. obalanserade klasser eller saknade data.
- R?ttvisem?tt: R?ttvisem?tt, t.ex. demografisk paritet eller lika m?jligheter, anv?nds f?r att utv?rdera modellens f?ruts?gelser f?r olika grupper av individer.
- Kontrafaktisk analys: Kontrafaktisk analys anv?nds f?r att utv?rdera hur modellens f?ruts?gelser skulle f?r?ndras om vissa funktioner i modellen var annorlunda.
- Inspektion av modellen: Modellens parametrar och beslutsgr?nser inspekteras f?r att uppt?cka m?nster som kan tyda p? partiskhet.
- Utv?rdering av prestanda: Modellens prestanda utv?rderas med hj?lp av en varierad upps?ttning data f?r att uppt?cka skillnader i prestanda mellan olika grupper.
- M?nsklig in the loop-metod: M?nskliga experter utv?rderar modellens f?ruts?gelser och letar efter partiska resultat.
Hur man f?rhindrar maskinpartiskhet
Det finns flera tekniker som kan anv?ndas f?r att fr?mja responsiv AI och f?rhindra maskinpartiskhet i maskininl?rningsmodeller. Vi rekommenderar att du anv?nder flera metoder och kombinerar dem genom att g?ra f?ljande:
- Diversifiera tr?ningsdata.
- Anv?nd r?ttvisebegr?nsningar som demografisk paritet och lika m?jligheter.
- Anv?nd algoritmer f?r korrigering av f?rdomar.
- Anv?nd regulariseringstekniker som L1- och L2-regularisering f?r att minska modellens komplexitet och fr?mja generalisering.
- Regelbundet granska och tolka modellens f?ruts?gelser f?r att uppt?cka och ?tg?rda bias.
- Inf?rliva m?nsklig feedback och ingripande i modellens f?ruts?gelseprocess f?r att s?kerst?lla opartiska beslut.
Maskinens bias kontra varians
Bias och varians ?r tv? begrepp som anv?nds f?r att beskriva prestanda och noggrannhet hos en maskininl?rningsmodell. En modell med l?g bias och l?g varians kommer sannolikt att prestera bra p? nya data, medan en modell med h?g bias och h?g varians sannolikt kommer att prestera d?ligt.
- Bias-fel uppst?r n?r man approximerar ett verkligt problem med en ML-modell som ?r f?r enkel. En modell med h?g bias underskattar ofta data eftersom modellen inte kan f?nga problemets komplexitet.
- Varians ?r ett fel som uppst?r n?r en ML-modell ?gnar s? mycket uppm?rksamhet ?t tr?ningsdata att den inte kan g?ra korrekta generaliseringar om nya data. En modell med h?g varians ?veranpassar ofta data.
I praktiken kan det vara sv?rt att hitta den optimala balansen mellan bias och varians. Tekniker som regularisering och korsvalidering kan anv?ndas f?r att hantera modellens bias och varians och bidra till att f?rb?ttra dess prestanda.