Skip header
Digitale kanaler

Algoritmer til besvær

Utsatte grupper i samfunnet kan bli stigmatisert gjennom algoritmisk databehandling.

Tekst: TOR BANG   |  Foto: ISTOCK.COM
Publisert: 21. august 2017

Entusiaster for bruk av algoritmer i analyser av store datamengder hevder at slike teknikker eliminerer menneskelig støy og forstyrrelser fra analysene, og dermed gir rene grunnlag for beslutninger. De glemmer at en algoritme bare er like god som de dataene den virker med. Data kan være svake, eller imperfekte på måter som gjør at algoritmene overtar og arbeider videre med slike svakheter.

Det påpekes av Dr. Solon Barocas og Dr. Andrew Selbst i paperet «Big Data’s Disparate Impact», der de reflekterer over uintenderte og uønskede effekter av bruk av stordata og datautvinning.

I noen tilfeller kan data gjenspeile samfunnets sosiale bias – forutinntatthet. I andre sammenhenger kan datautvinning avsløre mønstre av sosial eksklusjon og ulikhet og utestengte grupper. Grupper av minoriteter, økonomisk utsatte, funksjonshindrede og andre som på papiret nyter full rett til deltakelse på alle samfunnsnivåer, kan bli stigmatisert gjennom algoritmisk databehandling.

Juridisk og etisk problem

Slik diskriminering er som regel er en utilsiktet bieffekt ved bruk av algoritmer. Selv om effektene ikke oppstår som følger av bevisste valg, kan det være vanskelig å identifisere kilder til slike problemer, eller forklare dem for offentligheten.

Selv om Barocas og Selbst ser og undersøker disse bekymringene gjennom juridiske briller opp mot forbud mot diskriminering i arbeidsliv og offentlighet, har algoritmenes inntog en viss betydning også langs etiske og politiske dimensjoner. De to finner det viktig å løfte dette opp i en større samfunnsdebatt.

dame og mann koder foto istock scyther5
Algoritmer kan i fremtiden luke ut grupper med mennesker i arbeidslivet. Det er problematisk. Foto: Istock.com/scyther5

Vanskelig å løse

Selv om man ser bort fra en påviselig intensjon om å diskriminere, synes årsakene til disse bieffektene å ligge mange steder. Å luke ut virkninger av slik utilsiktet diskriminering, for eksempel å rette opp svakheter i lovverket, kan vise seg å være vanskelig teknisk, vanskelig juridisk og vanskelig politisk.

Det er en rekke praktiske grenser for hva som kan oppnås ved å endre programmer som styrer algoritmene. Som eksempel nevner Barocas og Selbst at når diskriminering oppstår fordi dataene som blir brukt, er resultat av tidligere forsettlig diskriminering, finnes det likevel ingen metoder for å eliminere data for på den måten å kunne kvitte seg med problemet. Korrigerende tiltak som endrer resultatene av analyser, ville sannsynligvis kunne ende opp i en juridisk, vitenskapsteoretisk og politisk hengemyr.

For å kunne luke ut maskinell bias og redusere risiko for diskriminerende praksis i nærings- og organisasjonsliv kreves mer enn en rimelig menneskelig og maskinell innsats. Barocas og Selbst viser at måten vi behandler stordata på, har sosiale, juridiske og andre effekter, ønskede og uønskede. Det vil også kreve analyser av hvordan vi forstår begrepene "diskriminering" og "rettferdighet".

Siste saker

Har du lest disse sakene?

Les Mer on Strategien som kapret velgerne
Pressearbeid
For medlemmer
Miljøpartiet de grønne Kickoff
Strategien som kapret velgerne –>

MDG måtte justerte kommunikasjonsstrategien da klimasaken falt ut av medienes valgkampdekning.

Les Mer on Når navnet ditt blir business
Markedskommunikasjon
Når navnet ditt blir business –>

Å bygge en personlig merkevare kan være krevende. Gjør du det riktig, er det en av de mest effektive investeringene du som gründer kan gjøre - vi gir deg tipsene.

Les Mer on Møt Kladden – Kommunikasjonsforeningens egen KI-agent
Kunstig intelligens
For medlemmer
Møt Kladden – Kommunikasjonsforeningens egen KI-agent –>

Kommunikasjonsforeningen lanserer sin egen KI-agent, Kladden. Nå vil vi gjerne at du skal prøve den.