NHH-professor Tor Wallin Andreassen.
NHH-professor Tor Wallin Andreassen. FOTO: NHH

Mennesker må kontrollere KI – ikke omvendt

Myndighetene lokalt og globalt er på offensiven for å regulere de globale selskapenes utvikling av kunstig intelligens (KI), maskinlæring (ML) og generativ KI (GenKI) ala ChatGPT. Heldigvis. Det er på tide.

Artikkelen er skrevet av Tor W. Andreassen. Andreassen er professor ved Norges Handelshøyskole og tilknyttet DIG-senteret.


I 2020 satte Senatet i USA de algoritme-styrte selskapene Google, Meta/Facebook, Apple, og Amazon under etterforskning for monopolvirksomhet. 16 oktober 2023 tiltrådte Karianne Tung som Norges nye minister for digitalisering og KI. 31 oktober vedtok president Jo Biden en «Executive order» som inneholder vesentlige skritt i USAs tilnærming til sikker, trygg og pålitelig KI/ML og GenKI. Samme uke var Englands statsminister Rishi Sunak vert for et todagers toppmøte for å diskutere sikkerheten og risikoene rundt teknologien. Tiltaket skal følges om med to nye møter.

Bakgrunnen for at lovgivere engasjerer seg, er at KI/ML og GenKI er kraftfulle verktøy som har potensiale til å påvirke – positivt og negativt – samfunnet og innbyggernes daglige liv. Men med teknologiens mange fordeler kommer det også betydelige ulemper.

Noen av problemene er innsamling av store mengder persondata – tenk Meta – som reiser spørsmål om personvern. Misinformasjon og desinformasjon – tenk Facebook og Twitter – som kan lede til destabilisering og polarisering av samfunn. Teknologisk utenforskap ettersom innbyggerne blir eldre og samfunnet mer digitalt. Eller de innebygde skjevhetene i algoritmene som kan lede til gale konklusjoner og anbefalinger innen helse og omsorg.

Men den STORE bekymringen som mange frykter – blant annet Stephen Hawking og Yuval Noah Harari – er muligheten for at teknologien utvikler seg til et nivå hvor den besitter naturlig kunstig intelligens. Dette er et nivå av intelligens som gjør at teknologien kan gjøre alt vi mennesker kan gjøre og mer. Frykten er at dette kan lede til utryddelse av menneskeheten.

Under den forutsetning at det er menneskene som styrer teknologien for å være en god tjener for oss, krever disse utfordringene at ledere og beslutningstakere må veie fordelene mot mulige farer, og utforme retningslinjer som fremmer ansvarlig bruk og utvikling av KI/ML og GenKI. Men det er ikke enkelt.

En for sakte regulering kan medføre at teknologien løper løpsk med uforutsette konsekvenser. En forhastet regulering kan kvele innovasjon eller til og med introdusere uønskede sideeffekter. Globale ledere som deltok i det nylige G7-møtet om KI, uttrykte bekymring for disse truslene, noe som støtter behovet for nøye overveielse og internasjonalt samarbeid.

For å adressere disse problemene ligger en rekke tiltak på bordet. Tiltakene inkluderer investeringer i forskning og utvikling på KI-sikkerhet og etikk, etablering av klare retningslinjer for bruk av teknologien, og forebygging gjennom opplysning av offentligheten om teknologiens mulige fordeler og farer. Videre bør selskaper pålegges å gjennomføre grundige sikkerhetsog etiske vurderinger av deres KI-systemer før de slippes løs på samfunnet. Her kan vi lære av utvikling og lansering av nye medisiner.

For ledere og lovgivere, er det viktig at de tar proaktive skritt for å kontrollere de globale selskapene og sikre at KI tjener som en positiv kraft for menneskene. Heldigvis skjer det noe.

I Europa har EU etablert en KI-forordningen som skal håndheves nasjonalt av et eget tilsyn. Tilsynet kan kreve at ulike KI/ML og GenKI løsninger trekkes fra markedet. I tillegg skal Tilsynet få innsyn i bruken av produktene, kildekoden og hvilke data de er trent på. Lovbrudd straffes med bøter på inntil 30 millioner euro eller 6 prosent av omsetningen, avhengig av hvilken sum som er høyest

Jeg er en positiv realist som tror og håper at vi klarer å ta kontroll over forskningen på og markedsføringen av KI/ML og GenKI slik at den blir det vi alle ønsker – en god og sikker tjener for et bedre liv for alle. Vi må unngå at teknologien blir vårt århundres Oppenheimer-øyeblikk.