– Vi tar utgangspunkt i definisjonen av kunstig intelligens (KI) som brukes i den nasjonale strategien og av EU. Denne favner veldig bredt, sier Corneliussen i en sak på Kjønnsforskning.no.
– Et kraftig og skummelt verktøy
Kunstig intelligens er i saken definert som teknologier som bruker algoritmer til å behandle data.
– Dette inkluderer alt fra automatisering av enkle prosedyrer til veldig komplekse former for maskinlæring, utdyper Corneliussen til Kjønnsforskning.no.
Det er viktig at man er bevisst på risikoen for diskriminering når man bruker KI i offentlig sektor
Et eksempel i saken på en automatisering av en enkel prosedyre kan være en chatbot som viser vei til rett spørsmål.
– I komplekse former for maskinlæring foregår prosessene i det man referer til som ‘black boxes’, altså at prosessene er såpass kompliserte at det er vanskelig for mennesker å forstå hva som skjer, sier Corneliussen.
Hun legger til i saken at dette gjør KI til både et kraftig og skummelt verktøy, og at det derfor er viktig at man er bevisst på risikoen for diskriminering når man bruker KI i offentlig sektor.
Søkelys på diskriminering
Kjønnsforskning.no forteller at rapporten Corneliussen har vært med å skrive er basert på en spørreundersøkelse som ble sendt ut til nær 500 institusjoner i kommunal og statlig sektor, og dybdeintervjuer med representanter for offentlige institusjoner.
En av observasjonen i rapporten var at det er liten bevissthet rundt risikoen for diskriminering ved bruk av KI.
Når man bytter ut ordet diskriminering, tenker man også annerledes
– Da vi spurte om diskriminering i henhold til diskrimineringsloven, fikk vi ofte svar som brukte andre ord, som åpenhet, rettferdighet og forklarbarhet. Men når man bytter ut ordet diskriminering, tenker man også annerledes, sier Corneliussen.
– Noen svarte at diskriminering kanskje ville komme opp som et tema senere i utviklingen av KI-verktøyene.
Corneliussen mener at søkelyset på diskriminering er noe som bør være med i refleksjonene fra starten av, og ikke noe som kommer på slutten.
Må ta høyde for forskjeller
– Historisk data vil for eksempel vise at menn oftere er i lederstillinger enn kvinner, forteller forskeren. Algoritmene kan da komme til å favorisere menn over kvinner til slike stillinger, sier Corneliussen.
Corneliussen påpeker til Kjønnsforskning.no at det er viktig å huske at kunstig intelligens spenner over et vidt felt av teknologier.
Det er alltid risiko for diskriminering ved bruk av KI, selv om vi gjør alt riktig
– Dette er særlig kritisk for offentlig sektor, som må kunne begrunne beslutninger som blir tatt. Man må behandle mennesker og grupper ulikt fordi de har ulike behov, og forskjellene mellom folk må bli tatt høyde for, sier hun.
Corneliussen forklarer videre at også annen informasjon som hvor du bor, hva du spiser og hvilken utdannelse du har kan brukes som diskrimineringsgrunnlag. Ikke bare kjønn og etninsitet.
– Det er alltid risiko for diskriminering ved bruk av KI, selv om vi gjør alt riktig. Men bevisstheten rundt, og arbeidet mot diskriminering, må inn i alle ledd av utforming og gjennomføring av KI-prosjekter, sier hun avslutningsvis til Kjønnsforskning.no.
Faktaboks
Rapporten «Bruk av kunstig intelligens i offentlig sektor og risiko for diskriminering» ble utarbeidet av Vestlandsforskning og Rambøll consulting på oppdrag fra Bufdir.
Rapporten ble utgitt i desember 2022.
Formålet med rapporten er å kartlegge bruken av kunstig intelligens (KI) som involverer persondata eller individdata i offentlig sektor.
Rapporten skal gi et kunnskapsgrunnlag for å utvikle strategier for å motvirke diskriminerende effekter ved bruk av KI.