Er du i ferd med å ta i bruk kunstig intelligens for å løse oppgaver internt i virksomheten eller som del av en tjeneste du vil tilby kunder eller brukere? Eller er du selv i ferd med å utvikle et kunstig intelligens-system for å løse bestemte oppgaver, og lurer på hva som gjelder av lover, regelverk og ting det er viktig å huske på, slik at du ikke gjør noe galt?
Digitaliseringsdirektoratet har nettopp laget en ny veileder for kunstig intelligens. Eller mer presist "Veiledning for ansvarlig bruk og utvikling av kunstig intelligens" fordi veiledning forteller at dette består av flere deler. Og at det vil endres og oppdateres i tråd med både teknologi- og tjenesteutviklingen og nye behov for råd og tips. Og så vil det utvilsomt være noen erfaringer og erkjennelser som gjøres på dette området fremover som vil rope på nye og bedre svar, og som vil påvirke hvordan fremtidige versjoner av denne veiledningen vil bli.
Denne veiledningen er laget for virksomheter i offentlige sektor, og enkelte ting er spesifikke for offentlige etater, som for eksempel forvaltningslovens bestemmelser, men jeg tror dette er en veiledningspakke veldig mange, også i privat sektor, vil ha stor nytte og glede av å lese og bruke. Det er rett og slett en svært god samling av veiledning, nyttige råd, regelverk, standarder og henvisninger og lenker til andre informasjonskilder. En god beskrivelse av det nye EU-regelverket for kunstig intelligens er det også, et regelverk, som også vil gjelde i Norge.
Hoveddelen heter "Råd for ansvarlig utvikling og bruk av kunstig intelligens i offentlig sektor" og er laget som "åpen beta" der de ber om synspunkter og innspill, og skriver at:
"Denne siden er i «åpen beta». I tiden fremover ønsker vi tilbakemeldinger og innspill til innholdet som presenteres her. Det betyr at rådene du finner på denne siden kan bli endret. Har du innspill til oss vil vi gjerne høre fra deg! Ta kontakt med oss på Datalandsbyen så sikrer vi at innholdet her blir best mulig."
Veilederen har en fin pedagogisk oppbygging og åpner med å minne om at kunstig intelligens (KI) verken kommer inn i et samfunn uten lover og regler eller får bryte lovene og reglene som allerede finnes. Tvert imot skal det i bruk i et samfunn som har en rekke lover og regler om menneskerettigheter og innbyggerrettigheter som gjelder like mye for bruk av kunstig intelligens som for alt annet av tjenester og teknologier. Veilederen viser til hvordan innbyggernes rettigheter er beskyttet av Grunnloven, EUs personvernforordning, internasjonale menneskerettighetskonvensjoner, forvaltningsloven, likestillings- og diskrimineringsloven og en rekke andre lover og regler. Dessuten har de ulike sektoren i samfunnet vår: helse, sosial, veitrafikk, finans, bygg og alt mulig annet, sine lover, rettigheter og tilsyn som passer på en rekke viktige hensyn.
Men så sier Digitaliseringsdirektoratet noe viktig: Den vanskelige utfordringen ligger ikke i å håndtere situasjoner der lover og regler gir helt klare svar på hva som er lov, men problemstillinger der ulike rettigheter og målsettinger står i motstrid til hverandre, der man for eksempel må balansere myndighetenes behov for å se ulike personopplysninger i sammenheng med behovet for å beskytte personvernet, eller der rikets sikkerhet kommer i konflikt med individuell frihet.
Og i mange situasjoner handler det om å vurdere og håndtere risiko. Ting vi gjør som normalt går bra, men der det er en viss sjanse for at det kan gå galt. Der vi har regler for å beskytte oss (trafikkregler, brannvern), men ikke kan unngå negative hendelser helt. Hvor mye risiko kan vi akseptere i samfunnet? Kunstig intelligens vil tilføre andre typer risiko, og i noen tilfeller kanskje nye typer risiko som må vurderes og håndteres. Digitaliseringsdirektoratet skriver:
"Hvorvidt og hvordan du skal ta i bruk kunstig intelligens handler om risiko. Bruk av kunstig intelligens kan innføre nye eller andre typer risiko. Hvorvidt en virksomhet skal ta denne risikoen, beror på en avveining mellom risikoens størrelse og den mulige gevinsten."
Veilederen til Digdir gir noen gode tips og lenker til verktøy og rammeverk som kan brukes til slike risikovurderinger av KI-systemer. Og minner om at den viktige forskjellen mellom korrelasjon og kausalitet. KI-systemene driver gjerne med prediksjon, der man ikke svarer på entydige årsak-virkning sammenhenger. Det betyr at man må håndtere resultatene med en annet type varsomhet enn der svaret er helt entydig.
Kunstig intelligens er avhengig av data for å virke. Uten data, ingen mulighet for å lage noen ting. Men når det gjelder data er det også flere utfordringer. For eksempel nødvendige vurderinger knyttet til om noe i dataene er beskyttet av immaterielle rettigheter, personvernbestemmelser, taushetsbelagt informasjon eller er gradert informasjon. Alt dette må vurderes og Digdir gir flere konkrete råd om hvordan man går frem for å sikre dette.
En annen problemstilling knyttet til data er faren for at datasettene ikke er representative og at de til og med kommer i konflikt med likestillings- og mangfoldsidealer vi har i samfunnet, og i verste fall bryter diskrimineringsbestemmelser i lovverket. Brukt riktig kan kunstig intelligens bidra til mer likestilling og mindre diskriminering fordi den kan gjøre objektive vurderinger, men ikke hvis dataene i seg selv er diskriminerende. Og noen ganger er det slik at historiske data, for eksempel og kvinner og menns yrkespreferanser, er riktige, men likevel ikke i tråd med en ønsket samfunnsutvikling i mer likestilt og mangfoldig retning. Da gjelder det å være bevisst denne fallgruven og gjøre konkrete vurderinger av hva man ønsker å oppnå med bruk av kunstig intelligens.
Et lengre avsnitt handler om "åpenhet og forklarbarhet" i bruken av KI, en viktig problemstilling som må vies stor oppmerksomhet, ikke minst i offentlig sektor som denne veiledningen gjelder for. Når det tas beslutninger i forvaltningen som gjelder den enkelte innbygger har vi rett til å vite både begrunnelsen for beslutningen og rett til å klage. Da kan ikke være slik at det har skjedd en saksbehandling inne i en "sort boks" med kunstig intelligens, men som ingen i ettertid kan forklare hvordan kommer frem til konklusjoner. Det er i strid med viktige samfunnsprinsipper om åpenhet og forklarbarhet. Og også i strid med dagens forvaltningslov og andre rettsikkerhetsbestemmelser.
Digitaliseringsdirektoratet har laget en egen side om
åpenhet og kunstig intelligens som går ganske grundig gjennom hva som egentlig menes med åpenhet og forklarbarhet og de har også fått Inga Strümke til å spille inn noen korte og pedagogiske videoer som forklarer ulike modeller som finnes og som man kan bruke for å oppnå forklarbarheten som er ønskelig når man bruker KI-modeller.
På samme måte er det avsnitt om hvordan man går frem for å håndtere sikkerhet og personvern når man skal ta i bruk eller utvikle kunstig intelligens. Her er det en god del lovgivning og regelverk på plass allerede, ikke minst på EU-nivå, men også her skaper KI noen nye utfordringer, og det er lenket til verktøy som kan benyttes som en del av disse vurderingene. Det er også lagt inn lenker til Datatilsynets veiledere og ikke minst til Datatilsynets utmerkede arbeid med regulatorisk sandkasse for KI som har medført at det allerede finnes gode eksempler på hvordan problemstillinger knyttet til personvern og KI kan håndteres i praksis.
Det begynner å komme en flere bra veiledere og strategier for bruk av kunstig intelligens, både fra offentlige myndigheter, internasjonale organisasjoner og standardiseringsvirksomheter, og jeg skal få laget en egen oversikt her på bloggen med lenker når jeg får tid. Dette bidraget fra Digitaliseringsdirektoratet er et godt bidrag i en slik oversikt.
Ingen kommentarer :
Legg inn en kommentar