Finn på siden
Kunstig intelligens: Hva er noen av de politiske konsekvensene?
Hva er kunstig intelligens? Hvordan vil teknologien
påvirke det norske samfunnet?
Publisert: 31. juli 2023
Av Carl Filip Lund, masterstudent i Society, Science and Technology in Europe (ESST) ved UiO
Innledning
Kunstig intelligens er et komplekst og raskt voksende teknologiområde som har potensial til å transformere samfunnet og måten vi arbeider og lever på. Teknologien kan bidra til å løse noen av verdens største problemer, men kan også ha potensielle skadelige konsekvenser vi ennå ikke overskuer omfanget av. Foreløpig er utviklingen for det meste uregulert, men det er en økende bevissthet om viktigheten av koordinert regulering.
Offentliggjøringen av ChatGPT, Bard og andre modeller basert på kunstig intelligens har preget den teknologiske debatten det siste året. Etter at OpenAI gjorde sin chatbot tilgjengelig for alle, har de andre teknologigigantene fulgt etter, og det kommer stadig nye fremskritt i teknologien. Kunstig intelligens (heretter KI) er hjørnesteinen i den fjerde industrielle revolusjonen, den raske teknologiske utviklingen som følge av økt automatisering og økt global sammenkobling. Uansett om en blir mest nervøs eller mest fascinert av KI-teknologien, kommer KI til å ha stadig større påvirkning på samfunnet og på enkeltindividers liv.
Dette notatet beskriver hva kunstig intelligens er og noen områder hvor teknologien kan påvirke politikken, og består av fire deler.
Den første delen gir en innføring i hva kunstig intelligens er, samt en forklaring av algoritmer og forskjellige typer KI.
Den andre delen utforsker politiske utfordringer som oppstår ved bruk av teknologien, med et fokus på sosiale media-algoritmer som forårsaker polarisering og spredning av falske nyheter.
I den tredje delen gis en beskrivelse av hvordan KI-teknologi kan effektivisere samfunnet og være en ressurs i håndteringen av fremtidige politiske problemer. Helsesektoren er valgt som eksempel for å gi en beskrivelse av hvordan KI kan bidra til å forbedre et samfunnsområde.
Til slutt beskrives det kort hvordan KI vil påvirke arbeidslivet i Norge.
Det konkluderes med at det er avgjørende å sørge for en demokratisk og etisk implementering av kunstig intelligens gjennom reguleringer, og at det er viktig for Norge å henge med på den teknologiske utviklingen.
Hva er kunstig intelligens?
Kunstig intelligens er en teknologi som gir maskiner evnen til å utføre oppgaver som normalt krever menneskelig intelligens; som å lære, problemløse, planlegge og forstå språk. Kunstig intelligens er, som navnet tilsier, intelligens som ikke er biologisk, og refererer som oftest til maskinell intelligens. Kunstig intelligens oppstår altså ikke naturlig, men er konstruert av menneskets biologiske intelligens.
I dette notatet kan vi se på kunstig intelligens som intelligente maskinprogrammer som oppstår via menneskelig teknologi, og som forhåpentligvis oppfyller menneskelige ønsker og mål. Lederen av «The Future of Life Institute», Max Tegmark, støtter en definisjon som denne, og peker på at intelligens i sin enkleste form er evnen til å oppnå komplekse mål (Tegmark, 2017). Ved å se på intelligens gjennom denne definisjonen blir det forhåpentligvis lettere å forstå hvordan mennesker kan konstruere intelligens som er kunstig.
Kunstig intelligens bruker store mengder data, og klarer å gjenkjenne mønstre samtidig som teknologien lærer, tilpasser seg og forbedrer sine egne algoritmer (SAS, 2022). Et eksempel er ChatGPT og andre chatbots. ChatGPT er en LLM (large language model), og bruker massive datamengder for å forstå, sammenfatte, generere og forutsi nytt innhold. Det komplekse målet til teknologien er å generere sammenhengende tekst og menneskelignende svar på spørsmål og instruksjoner. ChatGPT bruker predikativ statistikk for å «gjette» hvilke ord som kommer etter et annet, og resultatet er kunstig generert tekst som kunne vært skrevet av et menneske. Samtidig som teknologien gjør dette, klarer den å lære av sine tidligere feil og å tilpasse seg, slik at modellen stadig blir mer avansert og bedre til å oppnå målet sitt. Dette er en av grunnene til at ChatGPT ble gjort tilgjengelig for allmennheten, for å øke tilgangen til data og forbedre selvlæringen.
Et annet relevant eksempel er teknologien som bestemmer hvilket innhold en bruker på sosiale medier skal få presentert. Det komplekse målet til teknologien er her å holde brukeren engasjert på plattformen så lenge som mulig. Kunstig intelligens filtrerer derfor hva brukeren ser, nettopp for å oppnå målet den har blitt tildelt. Her begynner også noen av problemene med kunstig intelligens å bli synlige: I og med at fokuset er på ett enkelt mål, blir andre uforutsigbare konsekvenser, som for eksempel økt polarisering, ignorert.
Algoritmer
For å bedre forstå hvordan kunstig intelligens fungerer, er det nyttig å forstå hva algoritmer er. Algoritmer er en fundamental del av moderne teknologi, og spiller en stadig større rolle i våre liv. De er matematiske oppskrifter som brukes til å løse problemer og utføre oppgaver ved hjelp av datamaskiner (Grønmo & Hovde, 2020). Algoritmer er med andre ord ‘instruksjonsmanualen’ til en viss oppgave som skal utføres, og blir enten laget av mennesker eller av avansert kunstig intelligens. Et eksempel er selvkjørende biler, som består av svært komplekse algoritmer som er laget for å håndtere enhver situasjon og avgjøre hvordan bilen skal reagere i disse situasjonene. Algoritmer er i tillegg en essensiell del av mange internett-tjenester, hvor de styrer hvilke resultater vi får opp når vi bruker en søkemotor, og hvilket innhold som skal bli fremhevet til hvert enkelt individ på sosiale medier. I kunstig intelligens er algoritmene mer komplekse og mer uavhengige av sitt opprinnelige formål. Algoritmer i kunstig intelligens får inn enorme mengder data, for deretter å sortere og gi mening til dataen, gjennom blant annet å gjenkjenne mønstre. Den kunstige intelligensen bruker
så denne informasjonen til å lære og utvikle seg på egen hånd, og finner vanligvis den mest effektive måten å gjøre dette på. Noen typer avansert KI kan lære av sine feil, og konstruere bedre algoritmer for å fullføre formålet sitt mer effektivt.
Det er tre hovedkategorier av KI-algoritmer: 1) overvåket læring, 2) ikke-overvåket læring, og 3) forsterkende læring (Tableau, 2023). Hovedforskjellen mellom disse tre kategoriene er hvordan maskinene lærer og fungerer. Det er i tillegg en rekke delkategorier innad i hver hovedkategori, men for å holde det enkelt blir bare hovedkategoriene forklart i dette notatet.
Den vanligste og mest utbredte formen for KI-algoritmer er overvåket læring. Denne kategorien innebærer å gi maskinen tilgang til eksempler på riktig svar eller utfall for å gjenkjenne mønstre i inndataene, som er dataene man gir til en KI. Dataene er med andre ord merket eller sortert på forhånd, slik at maskinen kan vite hva som er rett eller galt. Grunnen til at kategorien kalles overvåket læring, er at menneskelige eksperter kontinuerlig gjennomgår dataene og svarene fra maskinen, for å sørge for at maskinen forbedrer seg og lærer å gjenkjenne mønstrene. Overvåket læring brukes blant annet til språkgjenkjenning, bilde-gjenkjenning og prediksjoner av økonomiske trender.
Ikke-overvåket læring er, i motsetning til overvåket læring, en type algoritmelæring hvor maskinen ikke har tilgang til merkede sett med data, men heller prøver å finne mønstre og sammenhenger på egenhånd. Denne typen algoritmer er særlig nyttig når en har store mengder udefinert eller ustrukturert data, og en KI kan hjelpe til med å gi dataene mening og struktur. Menneskelige eksperter, eller biologisk intelligens, er med andre ord ikke en nødvendig del av læringen, utover å sørge for inndataene. Derimot er menneskelige eksperter ofte nødvendig for å tolke utfallet av algoritmene, og for å sikre at algoritmens analyse faktisk er korrekt, noe som ofte er svært komplekse prosesser. Ikke-overvåket læring er nyttig hvis mennesker ikke klarer å definere eller strukturere dataene på egenhånd, og kan ved hjelp av KI heller fokusere på å tolke det endelige sorterte
utfallet.
Forsterkende læring er en form for KI-algoritmer hvor maskinen får kontinuerlige tilbakemeldinger i et dynamisk miljø. Tilbakemeldingene består av ‘straff’ for uønskede utfall og ‘belønninger’ for ønskede utfall. Disse tilbakemeldingene er laget for at maskinen skal fokusere på langtidsmål, istedenfor å bli opphengt i mindre og uviktige detaljer. Etter noe tid vil maskinen lære å unngå straff, og heller levere utfall som resulterer i belønninger. Forsterkende læring er spesielt nyttig i spillteori-applikasjoner, og kan brukes for å simulere komplekse virkelige problemstillinger, som for eksempel ressurshåndtering.
Hovedtyper av kunstig intelligens
Uavhengig av hvilke algoritmer en KI bruker, er det tre hovedtyper av kunstig intelligens, rangert etter hvor avansert den er. I stigende kompleksitet er hovedtypene: 1) svak KI, 2) sterk KI, og 3) super KI (Tegmark, 2017).
All kunstig intelligens som eksisterer i dag er svak kunstig intelligens, selv om dette kan endre seg i løpet av kort tid. Svak KI er målorientert, og er skapt med et spesifikt mål, og oppnår vanligvis dette målet særdeles effektivt. Denne typen KI er utviklet for å etterligne spesifikke menneskelige egenskaper, som for eksempel ansiktsgjenkjenning. Svak KI bruker ofte kompliserte algoritmer og teknikker, men mangler fleksibiliteten og tilpasningsdyktigheten til biologisk intelligens (Escott, 2017). Selv om svake KI-maskiner, som selvkjørende biler og talegjenkjenningsprogrammer, ofte kan virke mer avanserte og intelligente enn mennesker, så mestrer de allikevel bare spesifikke oppgaver. En selvkjørende bil vil for eksempel ikke være i stand til å forutsi økonomiske trender, og et talegjenkjenningsprogram vil ikke være i stand til å skille mellom en katt og en hund.
Sterk kunstig intelligens refererer til en hypotetisk type KI-system som er i stand til å utføre alle de kognitive funksjonene som et menneske kan, og det sies at maskinen har oppnådd generell kunstig intelligens. Sterk KI vil være i stand til å forstå og lære nye konsepter, tenke kreativt, og løse komplekse problemer på lik linje som et menneske kan. Hovedforskjellen fra svak KI er at sterk KI ikke har et spesifikt kompetanseområde, men i stedet har oppnådd intelligens på flere kompetanseområder, om ikke alle. En og samme kunstig intelligens kan for eksempel styre en selvkjørende bil, samtidig som den skriver en filosofisk avhandling og oversetter en bok fra engelsk til norsk. I tillegg vil den kunne lære av sine feil, og stadig forbedre hver eneste oppgave. Ifølge Max Tegmark er det stor usikkerhet om når sterk kunstig intelligens vil bli skapt, og hvordan det vil operere, men det er relativt sikkert at sterk KI vil bli utviklet i løpet av de neste tiårene.
Super kunstig intelligens er det hypotetiske steget etter sterk KI, og vil overgå menneskelig intelligens på alle områder av kognitivt arbeid. Kunstig intelligens av denne typen vil ikke bare kunne etterligne menneskelig intelligens, men vil bli selvbevisst og kunne skape sine egne mål og konklusjoner. Super KI vil med andre ord være så komplekst og intelligent at mennesker ikke vil kunne forstå hvordan den opererer og konsekvensene vil være revolusjonerende for den videre utviklingen av menneskene og jorden. Super KI er ennå kun en hypotetisk realitet, og er som oftest relatert til utopiske, eller dystopiske, science fiction-ideer. Det er ikke sikkert at det i det hele tatt er mulig å oppnå denne typen kunstig intelligens, og hvis det er mulig, vil det trolig ikke skje før om flere tiår.
Politiske utfordringer ved bruk av kunstig intelligens
Det er som nevnt flere utfordringer som oppstår ved utviklingen av kunstig intelligens, og konsekvensene av KI vil ha store ringvirkninger på samfunnet. Det er særlig algoritmer og KI på sosiale medieplattformer som medfører negative konsekvenser i dag.
Polarisering
For store sosiale medieplattformer er vi brukere ikke kunder, men produktet. Det er annonsørene som er kundene, og desto lenger brukere blir på plattformen, desto mer er annonsørene villige til å betale for annonsene. Derfor er de fleste plattformer gratis å bruke, nettopp for å få flest mulig brukere for å maksimere annonseinntektene.
Utviklingen av algoritmene til den kunstige intelligensen bak sosiale medier har de siste årene blitt knyttet til økende sosial og politisk polarisering (Narayanan et. al., 2018). Teknologigigantene har alle skapt svak kunstig intelligens hvis eneste mål er å engasjere brukere så mye som mulig, for dermed å holde brukerne så lenge som mulig på plattformen deres. Algoritmene bruker dataene som finnes om hver enkelt bruker for å analysere hvilket innhold som vil holde brukeren lengst mulig på plattformen, for deretter å mate brukeren med dette innholdet. Algoritmen har ikke noe annet formål enn dette ene spesifikke målet, og ignorerer derfor konsekvenser som ikke har noen påvirkning på målet. Brukere blir derfor som oftest vist politisk innhold som de allerede er enig med, og blir sjeldent vist innhold som utfordrer det de allerede er overbevist om, nettopp fordi det er større sjanser for å bli værende på en ukritisk plattform (Narayanan et. al., 2018). Selv om nyansert politisk innhold, med gode argumenter fra flere perspektiver, er det som skaper gode politiske løsninger, skaper ikke dette tilstrekkelig engasjement på sosiale medieplattformer. Dette innholdet blir derfor nedprioritert, noe som medfører at de fleste politiske debatter både fremstår mer polarisert, og skaper en polariserende effekt (Tucker, et. al., 2018).
Brukere av sosiale medier som får ensidig politisk innhold i ekkokamre, får følgelig et forvrengt virkelighetssyn. Feilaktige fakta og ideer blir stadig bekreftet for brukeren, og hver bruker får et eget, personlig virkelighetssyn, skapt av algoritmene.
Engasjement er en viktig komponent for hvor lenge en bruker blir på en plattform, og det er ofte dette engasjementet algoritmene utnytter for å beholde brukerens oppmerksomhet. Dette fører til at det er et insentiv til å vise engasjerende innhold, noe som ofte er radikale og ekstreme meninger og ideer (Tucker et. al., 2017). Ekstremt innhold vekker ofte sterke følelser hos brukere, enten brukeren er enig eller sterkt uenig, noe som øker sjansen for at brukeren deler innholdet, eller bruker mer tid på plattformen for å undersøke det ekstreme innholdet. Det er videre effektivt å overdrive avstanden til meningsmotstandere, nettopp for å øke engasjementet, noe som igjen øker den polariserende effekten. Når motpartens ekstremisme blir overdrevet virker også ens eget politiske ståsted mer troverdig. I tillegg er ekstremt innhold ofte nytt og spennende, og brukere blir derfor fascinert, og bruker følgelig mer tid på innholdet. Algoritmene får tilbakemeldinger på at det er effektivt å vise ekstremt innhold, og fortsetter å vise lignende innhold. Etter hvert vil innholdet bli stadig mer radikalt, for å opprettholde engasjementet. Det er i tillegg funnet at Twitter-brukere med ekstreme ideologiske posisjoner deler disproporsjonalt mer innhold enn andre brukere, noe som igjen øker det ekstreme innholdet på sosiale medieplattformer (Barberá og Rivero, 2015).
Når brukere av sosiale medier både blir matet med ensidig innhold, og innhold som stadig blir mer ekstremt, øker dette naturligvis både forekomsten og graden av politisk polarisering. Konsekvensene av denne polariseringen kan sees i store deler av samfunnet, hvor frontene har blitt steilere med mindre rom for kompromisser.
Falskt innhold
Videre kan det bli et stort problem at kunstig intelligens kan skape og konstruere bilder, videoer og innhold som ikke er ekte. Dette fenomenet kalles vanligvis «deep fakes», og begynner å bli normalt innhold på sosiale medier. Ikke bare kan aktører med ondsinnede hensikter bruke KI til å spre falskt innhold, men de kan bruke KI til å lage falskt innhold (Silverberger, 2023). Den siste tiden har det florert bilder på internett som er konstruert av kunstig intelligens, som for eksempel paven i en stor, hvit boblejakke, og Donald Trump som blir arrestert. Selv om det for øyeblikket med litt ekspertise som oftest er mulig å skille ekte og falske bilder, vil dette om kort tid trolig ikke være mulig (Tucker, et. al., 2017). Hvem som helst kan da konstruere et bilde av hva som helst, for deretter å spre det på internett. Algoritmer på sosiale medier sprer så innholdet til de brukerne som er mottakelige for det, og som det vil ha størst påvirkning på. Algoritmene vil ikke ha noe fokus på om innholdet er ekte eller falskt, men kun vise det som engasjerer.
Denne KI-teknologien kan bli misbrukt i politiske valgkamper, og i andre politiske ytringsrom. Deep fakes kan imitere politikere, og få dem til å fremsette feilaktige påstander, eller foreslå politikk som er direkte skadelig (Tucker, et. al., 2017). Politiske motstandere kan misbruke kunstig intelligens til å drive valgkampanjer preget av løgner, der det blir nærmest umulig å skille virkelige utsagn fra KI-konstruerte utsagn. Selv om det, tross alt, ikke er et nytt fenomen at politiske motstandere vrir på hverandres ord og politikk, kan dette nå utføres mer effektivt (Kahn, 2023). I tillegg finner Pennycook og Rand (2021) at så lenge brukere av sosiale medier blir eksponert for falskt innhold, uansett hvor usannsynlig eller ekstremt innholdet er, er det sannsynlig at de selv tror på det så lenge de kontinuerlig blir eksponert for lignende falskt innhold.
Dette er noen av de negative konsekvensene av kunstig intelligens som allerede er blitt fremtredende i dag. Polarisering, ekkokamre og falske nyheter har de siste årene skapt et hardere politisk miljø, og bidrar til at politiske meninger har blitt mer fragmentert. Det blir dermed vanskeligere å skape brede politiske kompromisser. Selv om vi i Norge ennå har stor tillit til hverandre og til statsapparatet, kan negative effekter av KI skade denne tilliten på lang sikt. Det er vanskelig å
forutsi de fremtidige konsekvensene av KI på samfunnet, men det er grunn til å tro at disse fort kan bli mer dramatiske enn de overnevnte. Samtidig kan riktig bruk av KI bidra til å minimere disse problemene, og faktisk gjøre Norge til et mer robust og stabilt samfunn.
Effektivisering av samfunnet ved bruk av kunstig intelligens
Selv om det er mange negative konsekvenser av kunstig intelligens, er det også uendelig med muligheter. Kunstig intelligens har muligheten til å drastisk endre, og forbedre, samfunnet. Norge, og de andre nordiske landene, har særdeles gode forutsetninger for en demokratisk og effektiv implementering av KI-teknologi i store deler av samfunnet (Oxford Research, 2021). Noen av fordelene er at de nordiske landene har en teknologisk avansert befolkning, stabile statsapparater, og høy grad av tillit til offentlig sektor. I tillegg er institusjonene sterke, noe som legger til rette for en demokratisk og etisk utvikling. Denne delen av notatet fokuserer på bruk av KI i policyprosesser, i helsevesenet, samt hvordan teknologien kan styrke demokratiet, samtidig som individuelle rettigheter og frihet blir ivaretatt. Gjennom en KI-implementering, basert på individuelle rettigheter som personvern og privatliv, kan mange fremtidige utfordringer bli løst på en virkningsfull måte.
Politikkutforming
KI kan effektivisere de fleste områder av samfunnet, og kan gjøre den politiske styringen mer målrettet. Som tidligere nevnt, kan svak KI utføre spesifikke oppgaver like raskt og grundig som et menneske, til en brøkdel av ressursbruken. Videre, hvis sterk KI snart blir en realitet, kan en spesifikk kunstig intelligens forstå de fleste konsekvenser og effekter av implementert politikk, og finne frem til det mest ønskede utfallet. Datadrevet KI kan altså være et av de kraftigste verktøyene for politikkutforming. Gjennom maskinlæring og predikative analyser har KI evnen til å skape et presist bilde av hva samfunnet trenger og hvordan problemer kan bli løst (Kumawat, 2020). Selv om teknologien for øyeblikket ikke tillater at en KI konstruerer komplekse implementeringer av offentlig politikkutforming, kan den effektivisere prosessen og utnytte bruken av tilgjengelig data.
Kunstig intelligens er for eksempel svært nyttig hvis den kan implementeres i hvert steg av policy-prosessen (Patel, et. al., 2021). For det første kan KI syntetisere store datamengder og oppdage mønstre, noe som fører til at man enkelt kan identifisere områder av offentlig politikk som burde forbedres eller endres. Etter dette kan man bruke KI til å lage en scenarioanalyse av kostnader, ressursbruk og effekter av eventuelle policy-implementeringer. Deretter kan man implementere det foreslåtte regelverket med ønsket resultat, mens man får sanntids tilbakemeldinger om implementeringen, om hva som fungerer bra og hva som burde forbedres. Til slutt kan man kontinuerlig analysere implementeringen på en ressurseffektiv måte ved å ha en forsterkende læringsalgoritme som stadig undersøker policyen og eventuelt forbedrer den i tråd med samfunnsutviklingen.
Det er for eksempel bruk av svak KI i Storbritannia som analyserer alle effekter av en potensiell karbonskatt på miljøet, karbonnivået og forretningsproduktivitet (Patel, et. al., 2021).
Helsesektoren
Et område i Norge hvor kunstig intelligens kan gjøre store, positive endringer er i helsesektoren. Norge får en stadig eldre befolkning, og det er store behov for å effektivisere helsesektoren og eldreomsorgen (Oxford Research, 2021). Det er også store datamengder i helsetjenestens informasjonssystemer. Ved hjelp av enkel maskinlæring kan all denne dataen systematiseres og gjøres lett tilgjengelig på en intuitiv måte (Nordsletta, 2021). Dette vil føre til mindre administrativt arbeid for leger, sykepleiere og fastleger, noe som igjen fører til at de kan bruke mer tid på å treffe flere pasienter, og gi pasientene mer oppmerksomhet. Når en så ser på en enkelt pasient, kan en bruke algoritmer til å forutsi eller tolke nøyaktig hva helseutfordringen til pasienten er. Ved å se på store datamengder kan algoritmer identifisere mønstre og sammenhenger, og derav svært presist finne ut av hvilken spesifikk sykdom en pasient har. En avansert kunstig intelligens kan tolke medisinske bilder, og gi presise diagnoser. Deretter kan en KI se på pasienten i helhet og identifisere hvilke medisiner og virkemidler som vil forbedre pasientens tilværelse (Berntsen, 2023).
QALY (quality-adjusted life year) er ofte brukt som en determinant i helsesektoren for å gjøre prioriteringer og se hvor sunn en pasient eller en befolkning er. Ved hjelp av kunstig intelligens kan denne prosessen drastisk forbedres, og bli både mer presis og mer effektiv. Når Norge i fremtiden blir tvunget til å ta vanskelige prioriteringer i et mer kostnadsfokusert helsesystem, kan en effektiv algoritme gjøre dette arbeidet mindre komplekst og mindre ressurskrevende. En viktig komponent av QALY er forebygging, altså at man bruker ressurser på å forebygge sykdom og ulykker, noe som er kostnadseffektivt i det lange løp. En svært avansert kunstig intelligens, en sterk KI, kan i nær fremtid klare å se på helsesektoren i sin helhet i forhold til resten av samfunnet. Ved hjelp av prediktiv analyse er det da realistiske muligheter for å kunne spare enorme kostnader i helsesektoren. Den kunstige intelligensen kan både identifisere nøyaktig hvor vi bør bruke ressurser og prioritere, og også gi presise anbefalinger til enkeltindivider om hvordan de kan holde seg friske og unngå ulykker. QALY-nivået i samfunnet vil øke radikalt, samtidig som vi bruker mindre penger og ressurser på helsesektoren. Det finnes mange flere områder innenfor helsesektoren hvor KI kan bli brukt, og desto mer KI utvikles og avanseres, desto større er mulighetene.
Det er viktig å nevne noen av farene og problemstillingene knyttet til KI-utvikling i helsesektoren. For at KI-implementeringen skal lykkes, trenger algoritmene tilgang til sensitiv pasientinformasjon, noe som kan være problematisk for personvernet. Dersom sensitiv data inkluderes i KI-systemene, øker eksponeringen for mulige hackerangrep. (Bekkelund, 2021). Vi har allerede sett at utenlandske aktører har hacket norske helsesystemer, og denne risikoen vil øke desto flere kilder det er til sensitiv informasjon. Videre er det viktig å sørge for at personaliserte helseanbefalinger ikke overtar individets autonomi, eller skaper en paternistisk stat som overstyrer personlige rettigheter.
Det er i tillegg essensielt å sørge for at algoritmene ikke er diskriminerende, eller inkluderer eksisterende fordommer i sine anbefalinger. Majoriteten av helsedataen vi bruker i dag er basert på vestlige menn, og det er ikke alltid sikkert at menn og kvinner skal ha samme diagnose og behandling, eller at data er det samme mellom befolkningsgrupper (Bekkelund, 2021). Dette kan skape urettferdig behandling mellom grupper, og kan i verste fall føre til alvorlig feilbehandling.
Demokrati
Det er også store muligheter for at KI kan redusere korrupsjon og andre demokratiske farer. Ved å bruke KI til å analysere store datasett med offentlig pengebruk og transaksjoner, kan en enkel, svak KI finne mønstre og anomalier som kan avsløre korrupsjon eller bedrageri. Aarvik (2019) finner at kunstig intelligens kan oppdage korrupsjon i alle relativt digitaliserte samfunn, og at en implementering av dette kan øke demokratisk utvikling på verdensbasis. Den samme algoritmen
kan også implementeres i skattesystemet, for å unngå underslag og andre former for skattesvindel på en effektiv måte.
Det er selvfølgelig personvernsbekymringer når det kommer til implementering av KI som dette, i og med at teknologien trenger tilgang til data som ofte er personlig og privat. Det vil bli krevende
å implementere denne formen for KI, samtidig som vi beskytter retten til privatliv. Retten til personvern og privatliv er en avgjørende komponent i et velfungerende, liberalt demokrati, og denne rettigheten er sikret både i den norske grunnloven og i Den europeiske menneskerettighets-konvensjonen (Datatilsynet, 2019). Videre er privatliv essensielt for å sikre personlig frihet og et fritt demokrati, fordi individer trenger et rom hvor de kan foreta refleksjoner og vurderinger uten ekstern inngripen (Honneth, 2014). Dette rommet har allerede blitt innskrenket grunnet ekstern manipulasjon fra sosiale media-algoritmer, noe som igjen fremmer viktigheten av at nasjonal KI-implementering tar vare på personvernsrettigheter. I tillegg er det personvernsbekymringer knyttet til mulig hacking fra utenlandske aktører. Disse kan få tilgang til sensitiv informasjon om norske borgere, som for eksempel helsejournaler. Norge må derfor lykkes i den krevende oppgaven med å implementere KI på en effektiv måte, samtidig som vi ivaretar retten til personvern og beskytter sensitiv informasjon.
Hvis kunstig intelligens implementeres på en etisk og demokratisk måte, kan dette også skape et mer demokratisk samfunn, hvor befolkningen i større grad er med på politiske beslutninger. Hvis politikere og policyeksperter bruker KI på en etisk måte til å finne politiske løsninger, vil det bli mindre rom for uenigheter om implementeringen av forskjellige regelverk og retningslinjer. Når en prioritering først har blitt vedtatt av et stortingsflertall, kan det være større enighet om hvordan man oppnår ønsket resultat. Dette kan føre til et mer effektivt statsapparat og et mindre konfliktfylt offentlig debattklima, og kan være med på å bekjempe den økende polariseringen som også er
skapt av kunstig intelligens. I tillegg kan denne informasjonen bli presentert for velgerne, og det vil bli mindre attraktivt for populistiske politikere å fremme forenklede løsninger på komplekse problemer. Velgerne vil da være mer opplyst om hva som faktisk fungerer, og hva som skaper ønskede resultater.
KI kan effektivisere nesten hvert eneste område av samfunnet, og kan også sørge for en bedre samhandling mellom områdene. Det er viktig at KI-teknologien implementeres på best mulig måte, altså etisk og demokratisk, for å sikre at norske innbyggere får mest mulig utbytte av teknologien, og for å sikre individuell frihet. Det er flere tilfeller av KI som resulterer i diskriminerende, og direkte samfunnsskadelige, forslag (Verma, 2022). Det er derfor essensielt å forsikre at inndataene ikke er partiske eller diskriminerende. I regjeringens KI-strategi fra 2020 nevnes det også at reguleringer må til for å sikre en trygg og rettferdig KI-implementering, og så lenge våre demokratiske verdier følger med den teknologiske utviklingen, er Norge et meget gunstig land for å utnytte KI-teknologi positivt.
For å sikre en vellykket KI-implementering er en god start å gjeninnføre digitaliseringsministeren, helst med et eget departement som har kunnskap og ressurser til å få et overordnet perspektiv på KI-utviklingen i Norge. I dag er teknologipolitikken kun ett av mange politikkområder til kommunal- og distriktsdepartmentet, og det er besynderlig at vi nettopp i denne tiden ikke har et eget departement for en av de viktigste utviklingene i nyere tid.
Videre kan vi se til EUs AI Act for inspirasjon til hvordan vi kan regulere KI på en effektiv måte i Norge. EU er den første store aktøren som prøver å regulere KI. The AI Act foreslår å inndele KI-implementering i tre kategorier avhengig av potensiell risiko (EU, 2023). KI-systemer og applikasjoner som innebærer en uakseptabel risiko, som for eksempel sosiale kredittordninger, blir regelrett ulovlig. KI-systemer med høy risiko blir gjenstand for spesifikke og målrettete reguleringer. Til sist foreslår AI Act at KI som ikke medfører noen spesiell risiko for det meste vil være uregulert. Selv om denne politikkutformingen ikke er perfekt eller feilfri, så representerer den en aktiv reguleringsprosess, som både beskytter innbyggernes rettigheter og legger til rette for effektiv KI-utvikling.
Konsekvenser for arbeidsmarkedet
Mange er bekymret for at kunstig intelligens vil påvirke arbeids-markedet, og at teknologien kan skape massearbeidsledighet og økt økonomisk ulikhet. Kunstig intelligens påvirker allerede arbeidslivet i Norge, slik teknologisk utvikling alltid har gjort. Det er ingen tvil om at KI vil ha stor effekt på hvordan vi arbeider og på økonomien i sin helhet. På grunn av teknologiens uforutsig-barhet, er det vanskelig å angi effektene på arbeidsmarkedet. Tidligere teknologisk utvikling har gjerne bidratt til automatisering av lavtlønnet og manuelt arbeid, mens det i den fjerde teknologiske revolusjonen også omfatter kognitivt arbeid (Mok & Zinkula, 2023). Det er samtidig viktig å påpeke at KI også har et stort potensial til å bidra positivt i arbeidsmarkedet.
En bekymring mange har, er at kunstig intelligens vil gjøre millioner av arbeidstakere overflødige, og at de dermed vil bli erstattet av en intelligent algoritme som kan utføre samme arbeidsoppgaver mer effektivt til en brøkdel av kostnadene. En nylig utgitt rapport fra Goldman Sachs anslår at opptil 300 millioner jobber kommer til å bli påvirket av KI de neste årene (Nolan, 2023). Det er rutinepregede arbeidsoppgaver som er særlig utsatt for automatisering, men siden kunstig intelligens nettopp er intelligent, betyr det at teknologien også kan utføre kreative, analytiske og strategiske oppgaver. Eksempler på dette kan være programmering, kreativt arbeid og ulike profesjonsyrker, som jus og finans (Nolan, 2023).
Samtidig er det åpenbare og store effektiviseringsmuligheter gjennom KI-teknologi som kan øke den generelle produktiviteten i økonomien. Goldman Sachs finner at generativ KI alene kan øke verdens BNP med 7 prosent de neste årene (Goldman Sachs, 2023). Siden KI kan overta mange repetitive oppgaver i arbeidslivet, vil dette frigjøre menneskelig arbeidskraft til heller å fokusere på andre, mer komplekse, arbeidsoppgaver. Flere mediehus bruker for eksempel KI til oversettelsesarbeid, noe som tidligere var en svært tidskrevende arbeidsoppgave. Dette er ikke bare ressurssparende, men fører også til at journalister kan bruke mer tid og energi på viktigere journalistiske oppgaver. Dette eksempelet viser at KI ikke nødvendigvis vil erstatte arbeidsplasser som sådan, men i stedet omstille og effektivisere dem. Det er dermed muligheter for en ressurseffektiv produktivitetsøkning, samtidig som arbeidstakere jobber like mye, eller mindre, enn tidligere.
Samlet sett vil effekten av KI på arbeidslivet i Norge avhenge av hvordan teknologien blir implementert og regulert. Det vil kreve en helhetlig tilnærming fra myndigheter, bedrifter og arbeidstakere for å sikre at KI bidrar til økonomisk vekst og jobbskaping, samtidig som at den tar hensyn til arbeidstakernes rettigheter og sikkerhet. I Norge har vi allerede et velfungerende trepartssamarbeid som kan legge til rette for en slik KI-implementering i arbeidsmarkedet, og det er viktig at partene forstår KI og tilrettelegger for en god omstilling. Vi har vært gjennom store teknologiske skifter før, som overgangen fra et jordbruks- til et industrisamfunn, og deretter overgangen fra industrisamfunnet til servicesamfunnet. Disse tidligere omstillingene skapte både økt produktivitet og økt velferd, og vi kan derfor håpe at vi også denne gangen klarer å lede omstillingen til et positivt utfall.
Konklusjon
Dette notatet har beskrevet hva kunstig intelligens er og hvordan teknologien vil kunne påvirke politikk og samfunn i Norge. KI er fortsatt i sin startfase, og det er umulig å forutsi hva teknologien faktisk vil føre til. Selv om teknologien allerede har skapt store endringer politisk, vil den kunne føre til langt mer dramatiske endringer i måten vi lever på og hvordan politikk utformes. Når en sterk KI, eller til og med super KI, utvikles, er det eneste som er sikkert at det vil ha store konsekvenser; både av positiv og negativ karakter. For å styre utviklingen i riktig retning, er det viktig at dagens beslutningstakere forstår hva KI er og hvordan den best kan reguleres. En anbefaling er å lese den nye boken til Inga Strümke, som gir en forståelig forklaring og analyse av KI. Vi ser allerede negative konsekvenser, og det er viktig å ta aktive avgjørelser som minimerer disse konsekvensene, samtidig som vi utnytter effektiviseringspotensialet. Vi trenger derfor reguleringer allerede i dag, som tilrettelegger for en trygg og konkurransedyktig KI-utvikling. Samtidig må vi ikke overregulere, slik at vi hindrer utviklingen av KI og vår konkurransedyktighet.
Det er viktig at vi som samfunn ikke havner etter i utviklingen. Selv om Norge ikke er i stand til å konkurrere med nasjoner som USA og Kina, kan vi fortsatt spesialisere oss på områder hvor vi allerede har et komparativt fortrinn, som for eksempel innen petroleumsnæringen, arktisk teknologi og helse. Regjeringen må legge til rette for denne utviklingen, og samtidig sørge for at utviklingen skjer på et trygt og demokratisk vis. Et samarbeid med EU kan for eksempel sikre at vi får tilgang til innovasjon og annen utvikling i sammenkobling med et større og mer avansert KI-miljø.
Hvis vi som nasjon er klare til å omfavne kunstig intelligens på en sikker måte, og alt det medfører, er mulighetene gode for å sikre et dynamisk, produktivt, egalitært og demokratisk samfunn.
En PDF-versjon av notatet kan lastes ned her:
Civita er en liberal tankesmie som gjennom sitt arbeid skal bidra til økt kunnskap og oppslutning om liberale verdier, institusjoner og løsninger, og fremme en samfunnsutvikling basert på respekt for individets frihet og personlige ansvar. Civita er uavhengig av politiske partier, interesseorganisasjoner og offentlige myndigheter. Den enkelte publikasjons forfatter(e) står for alle utredninger, konklusjoner og anbefalinger, og disse analysene deles ikke nødvendigvis av andre ansatte, ledelse, styre eller bidragsytere. Skulle feil eller mangler oppdages, ville vi sette stor pris på tilbakemelding, slik at vi kan rette opp eller justere.
Ta kontakt med forfatteren på [email protected].
Kilder
- Aarvik, P. (2019). «Artificial Intelligence: a promising anti-corruption tool in development settings?», Christian Michelsen Institute
- Bekkelund, A. S. K. (2021, desember). «Kunstig Intelligens i Klinikken», Teknologirådet
- Berntsen, H. (2023, 19. januar). «Ny rapport anbefaler mer kunstig intelligens i norsk helsevesen», Nasjonalt senter for e-helseforskning
- Buranyi, S. (2017, 8. august). «Rise of the racist robots – how AI is learning all our worst impulses», The Guardian
- Conn, A. (2015, 14. november). «Benefits and Risks of Artificial Intelligence», The Future of Life Institute
- Datatilsynet (2019, 17. juli). «Hva er personvern?», Datatilsynet, Lest 9. mai 2023, fra: https://www.datatilsynet.no/rettigheter-og-plikter/hva-er-personvern/#:~:text=Personvern%20er%20også%20viktig%20for,forstyrret%20eller%20kontrollert%20av%20andre.
- Escott, E. (2017, 24. oktober). «What are the 3 types of AI? A guide to narrow, general and super artificial intelligence», Codebots, Lest 12. mars 2023 fra: https://codebots.com/artificial-intelligence/the-3-types-of-ai-is-the-third-even-possible
- Goldman Sachs (2023, 5. april). «Generative AI could raise global GDP by 7 %», Goldman Sachs, Lest 13. mai 2023 fra: https://www.goldmansachs.com/intelligence/pages/generative-ai-could-raise-global-gdp-by-7-percent.html
- Grønmo, S. & Hovde, K-J. (2020, 2. november). «Algoritme», Store Norske Leksikon
- Haenlein, M., & Kaplan, A. (2019). «A Brief History of Artificial Intelligence: On the Past, Present, and Future of Artificial Intelligence.» California Management Review, 61(4), 5–14.
- Honneth, A. (2014), «Freedom’s Right: The Social Foundations of Democratic Life», Columbia University Press
- IBM (2023), «What is Artificial Intelligence (AI)?», Lest 3. mars 2023 fra: https://www.ibm.com/cloud/learn/what-is-artificial-intelligence
- Ipsos (2022, 26. august). «8 av 10 bruker sosiale medier én eller flere ganger daglig», Lest 25. mars 2023 fra: https://www.ipsos.com/nb-no/ukens-tall-34-8-av-10-bruker-sosiale-medier-en-eller-flere-ganger-daglig
- Johannessen, J. A. (2022, 5. september). «Slik påvirker kunstig intelligens fremtidens arbeidsmarked», Høyskolen Kristiania
- Kahn, G. (2023, 11. april). «Will AI-generated images create a new crisis for fact-checkers? Experts are not so sure», Reuters Institute, University of Oxford
- Kommunal- og moderniseringsdepartementet (2020), «Nasjonal strategi for kunstig intelligens», Regjeringen
- Kreps, S & Kriner, D. (2023, 21. mars). «How generative AI impacts democratic engagement» Brookings Institute
- Kumawat, D. (2020, 27. april). «How Artificial Intelligence (AI) can be used in Politics & Government?», Analytic Steps
- Mok, A. & Zinkula, J. (2023, 9. april). «ChatGPT may be coming for our jobs. Here are 10 roles that AI is most likely to replace», Business Insider
- Narayanan, V., et. al. (2018). «Polarization, Partisanship and Junk News Consumption over Social Media in US», Oxford University
- Nguyen, T., et. al. (2022). «Deep learning for deepfakes creation and detection: A survey». Computer Vision and Image Understanding. 223(4)
- Nolan, B. (2023, 28. mars). «AI systems like ChatGPT could impact 300 million full-time jobs worldwide, with administrative and legal roles some of the most at risk, Goldman Sachs report says», Business Insider
- Nordsletta, A. T. (2021, 26. november). «Kunstig Intelligens og Maskinlæring i Helsesektoren», Nasjonalt senter for e-helseforskning
- Oxford Research report (2021). «The State of Artificial Intelligence in the Nordic Countries», Oxford Research
- Patel, J. et. al. (2021, 5. april). «AI brings science to the art of policymaking», Boston Consulting Group, Lest 2. april 2023 fra: https://www.bcg.com/publications/2021/how-artificial-intelligence-can-shape-policy-making
- Pennycook, G & Rand, D. (2021). «The Psychology of Fake News», CellPress, Vol. 5:5, s. 388–402
- Petrescu, M. & Krishen, A.S. (2020). «The dilemma of social media algorithms and analytics». J Market Anal 8, 187–188.
- Pwc, (2023). «What is the impact of AI on government policy and society?», PwC Global, Lest 2. april 2023 fra: https://www.pwc.com/gx/en/issues/data-and-analytics/artificial-intelligence/government-reaction.html
- Rijmenam, M. (2023, 17. februar). «Privacy in the age of AI: Risks, challenges and solutions», The Digital Speaker, Lest 9. mai 2023, fra: https://www.thedigitalspeaker.com/privacy-age-ai-risks-challenges-solutions/
- SAS (2022). «Artificial Intelligence: What it is and why it matters», SAS Institute, Lest 9. mai 2023, fra: https://www.sas.com/en_in/insights/analytics/what-is-artificial-intelligence.html#:~:text=Artificial%20Intelligence%20enhances%20the%20speed,manually%20intense%20data%20management%20tasks.
- Satariano, A & Mozur, P. (2023, 7. februar). «The People Onscreen Are Fake. The Disinformation Is Real», The New York Times
- Siemens, G. (2022, 22. desember). «Not everything we call AI is actually artificial intelligence. Here’s what you need to know», The Conversation
- Silverberg, D. (2023, 14. februar). «Could AI swamp social media with fake accounts?», BBC, Lest 2. april 2023 fra: https://www.bbc.com/news/business-64464140
- Sioli, L. (2021). «Shaping Europe’s Digital Future: A European Strategy for Artificial Intelligence», Europakommisjonen
- Tableau (2023). «Artificial Intelligence (AI) Algorithms: a complete overview», Lest 12. mars 2023 fra: https://www.tableau.com/data-insights/ai/algorithms#definition
- Tegmark, M. (2017), «Life 3.0», Penguin Books, Storbritannia
- Tucker, J., et. al. (2018). «Social Media, Political Polarization, and Political Disinformation: A Review of the Scientific Literature», Hewlett Foundation
- Verma, P. (2022, 16. juli). «These robots were trained on AI. They became racist and sexist», The Washington Post, Lest 4. april 2023 fra: https://www.washingtonpost.com/technology/2022/07/16/racist-robots-ai/
- Vinuesa, R., Azizpour, H., Leite, I. et al. (2020), «The role of artificial intelligence in achieving the Sustainable Development Goals». Nat Commun 11, 233.
- Whittlestone, J., Nyrup, R., Alexandrova, A., Dihal, K. & Cave, S. (2019). “Ethical and societal implications of algorithms, data, and artificial intelligence: a roadmap for research”, London: Nuffield Foundation
- Øhrstrøm, P. (2007), «Kunstig intelligens i etisk belysning», Aalborg Universitetsforlag