ForskningPublisert 21. august 2017, endret 18. september 2017

Illustrasjonsfoto iStock

Algoritmer til besvær

Utsatte grupper i samfunnet kan bli stigmatisert gjennom algoritmisk databehandling.

Tekst: Tor Bang, førsteamanuensis, Institutt for kommunikasjon og kultur, Handelshøyskolen BI / Foto: Illustrasjon: iStock

Entusiaster for bruk av algoritmer i analyser av store datamengder hevder at slike teknikker eliminerer menneskelig støy og forstyrrelser fra analysene, og dermed gir rene grunnlag for beslutninger. De glemmer at en algoritme bare er like god som de dataene den virker med. Data kan være svake, eller imperfekte på måter som gjør at algoritmene overtar og arbeider videre med slike svakheter.

Det påpekes av Dr. Solon Barocas og Dr. Andrew Selbst i paperet «Big Data’s Disparate Impact», der de reflekterer over uintenderte og uønskede effekter av bruk av stordata og datautvinning.

I noen tilfeller kan data gjenspeile samfunnets sosiale bias – forutinntatthet. I andre sammenhenger kan datautvinning avsløre mønstre av sosial eksklusjon og ulikhet og utestengte grupper. Grupper av minoriteter, økonomisk utsatte, funksjonshindrede og andre som på papiret nyter full rett til deltakelse på alle samfunnsnivåer, kan bli stigmatisert gjennom algoritmisk databehandling.

Juridisk og etisk problem

Slik diskriminering er som regel er en utilsiktet bieffekt ved bruk av algoritmer. Selv om effektene ikke oppstår som følger av bevisste valg, kan det være vanskelig å identifisere kilder til slike problemer, eller forklare dem for offentligheten.

Selv om Barocas og Selbst ser og undersøker disse bekymringene gjennom juridiske briller opp mot forbud mot diskriminering i arbeidsliv og offentlighet, har algoritmenes inntog en viss betydning også langs etiske og politiske dimensjoner. De to finner det viktig å løfte dette opp i en større samfunnsdebatt.

Vanskelig å løse

Selv om man ser bort fra en påviselig intensjon om å diskriminere, synes årsakene til disse bieffektene å ligge mange steder. Å luke ut virkninger av slik utilsiktet diskriminering, for eksempel å rette opp svakheter i lovverket, kan vise seg å være vanskelig teknisk, vanskelig juridisk og vanskelig politisk.

Det er en rekke praktiske grenser for hva som kan oppnås ved å endre programmer som styrer algoritmene. Som eksempel nevner Barocas og Selbst at når diskriminering oppstår fordi dataene som blir brukt, er resultat av tidligere forsettlig diskriminering, finnes det likevel ingen metoder for å eliminere data for på den måten å kunne kvitte seg med problemet. Korrigerende tiltak som endrer resultatene av analyser, ville sannsynligvis kunne ende opp i en juridisk, vitenskapsteoretisk og politisk hengemyr.

For å kunne luke ut maskinell bias og redusere risiko for diskriminerende praksis i nærings- og organisasjonsliv kreves mer enn en rimelig menneskelig og maskinell innsats. Barocas og Selbst viser at måten vi behandler stordata på, har sosiale, juridiske og andre effekter, ønskede og uønskede. Det vil også kreve analyser av hvordan vi forstår begrepene "diskriminering" og "rettferdighet".

Artikkelen ble publisert i Kommunikasjon nr. 3 / 2017.

+ Del