mandag 24. april 2023

Kunstig intelligens - og balansen mellom innovasjon og regulering

Erkjennelsen av at kunstig intelligens (KI) kommer til å få enorm betydning for mennesker, virksomheter, arbeidsplasser og samfunnet i stort i årene som kommer, er i ferd med å nå nye høyder. Endringskraften har vært sammenlignet med andre teknologiske revolusjoner som elektrisiteten, datamaskinen og internett, men her er det kanskje et større sprik mellom veldig optimistiske og ekstremt pessimistiske spådommer om hva slags virkninger teknologien vil få, hvor raskt det er mulig å utvikle en generell menneskelignende kunstig intelligens og hvor stort behovet vil bli for å lovregulere og kontrollere, og til og pause utviklingen, på dette feltet.

Helt nytt er det ikke at vi er opptatt av dette. I Norge skrev vi en nasjonal strategi for kunstig intelligens som kom tidlig i 2020, en strategi jeg var med på å jobbe fram sammen med Nikolai Astrup, Jenny Clemet og embetsverket i KMD, og der en rekke eksperter, virksomheter og organisasjoner ble invitert inn og bidro i dette arbeidet. Og på samme tid var EU i gang med et viktig arbeid med et nytt felles lovverk, en Artificial Intelligence Act som nå er i ferd med å bli europeisk og, antar jeg, etter hvert norsk lov.

Disse dokumentenes styrke ligger ikke i at de prøver å spå teknologiutviklingen, Verken hvor fort det vil gå, eller hva slags anvendelsesområder som vil kreve særlig stimulans eller begrensninger er presist beskrevet, men de trekker opp viktige prinsipielle, etiske og samfunnsmessige hensyn vi må være opptatt av å ivareta i møte med nye teknologiske systemer. Blant annet sikkerhet, personvern, ikke-diskriminering og opphavsrettsbeskyttelse. Og hensynet til åpenhet og dokumenterbarhet må være ivaretatt når det gjelder beslutninger som gjelder borgere og virksomheter. Vi kommer langt om vi lar bredt forankrede verdier og prinsipper sette rammene for akseptabel bruk av teknologi, og ikke gjør det i omvendt rekkefølge.

Men selv om kunstig intelligens ikke er helt nytt i samfunnsdebatten så har vi det siste halvåret fått et slags "KI-sjokk" på grunn av tjenester som Chat GPT, Dall-E og Midjourney, Plutselig er dette tjenester som er blitt tilgjengelige for oss alle og som både imponerer og skremmer når det gjelder hvor kraftfulle, kreative og raske de er. Og hvor gode de er til å tilpasse svarene til formkravene som ligger i bestillingen, enten det er å male malerier som Munch, skrive sangtekster som The Clash eller skrive prosa som Shakespeare, for å nevne noen eksempler på bestillinger jeg har prøvd selv. Samtidig virker disse modellene slik at de kan ha et svært lite presist forhold til sannhet og slår fast ting med stor selvsikkerhet som ofte høres ut som de kan være sannsynlige, og sikkert passer i statistiske språkmodeller, men er fullstendig feil. "Hallucination" eller "artificial hallucination" er det blitt døpt.

Hvordan skal vi som samfunn forholde oss til disse nye KI-tjenestene og det som kommer i neste runde som vil være enda mer avansert, og sikkert betydelig mer korrekt når datamodellene blir større og bedre trent? Og hva skal vi gjøre med KI som lærer av egne suksesser og  feil, og trener seg selv til å bli stadig bedre? Og så tar sine egne avgjørelser om utviklingen videre? Dette er tema i The Economists siste nummer der KI på forsiden er utstyrt med både glorie og djevelhorn.  Og der lederartikkelen har fått tittelen "How to worry wisely about artificial intelligence?". 

Jeg synes The Economist gir en god og leseverdig analyse av hvordan vi skal gjøre en slik  kunnskapsbasert og klok gjennomgang av bekymringene knyttet til farene ved kunstig intelligens. De har en del  betraktninger om de potensielle eksistensielle truslene ved KI, og det store spriket i syn på hva slags trussel KI kan utgjøre mot menneskeheten, og hvordan den type trusler må møtes. Men peker på at regulering vil være nødvendig også av helt andre og mindre dramatiske grunner. Utfordringen da ligger i å finne den riktige balansen mellom hvor mye frihet det skal være til å teste ut helt nye ting og hvor mye det skal reguleres, The Economist skriver:

"Regulation is needed, but for more mundane reasons than saving humanity. Existing ai systems raise real concerns about bias, privacy and intellectual-property rights. As the technology advances, other problems could become apparent. The key is to balance the promise of ai with an assessment of the risks, and to be ready to adapt.

So far governments are taking three different approaches. At one end of the spectrum is Britain, which has proposed a “light-touch” approach with no new rules or regulatory bodies, but applies existing regulations to ai systems. The aim is to boost investment and turn Britain into an “ai superpower”. America has taken a similar approach, though the Biden administration is now seeking public views on what a rulebook might look like.

The EU is taking a tougher line. Its proposed law categorises different uses of ai by the degree of risk, and requires increasingly stringent monitoring and disclosure as the degree of risk rises from, say, music-recommendation to self-driving cars. Some uses of ai are banned altogether, such as subliminal advertising and remote biometrics. Firms that break the rules will be fined. For some critics, these regulations are too stifling."

But others say an even sterner approach is needed. Governments should treat ai like medicines, with a dedicated regulator, strict testing and pre-approval before public release. China is doing some of this, requiring firms to register ai products and undergo a security review before release. But safety may be less of a motive than politics: a key requirement is that ais’ output reflects the “core value of socialism”.

Av disse tre tilnærmingene gir The Economist støtte til EU-modellen som hovedmodell og sammenligner behovet for reguleringer av KI med behovet for å ha reguleringer for fly, biler eller legemidler for at de skal være sikre. De  mener EUs lov om KI kan være i overkant rigid i sitt klassifiseringssystem, og at det er viktigere å etablere prinsipper for åpenhet og innsyn i hvordan systemene er designet og trent opp, og et regime for tilsyn, på samme måte man har tilsyn med  virksomheter på andre viktige områder i samfunnet. 

Dette nummeret av The Economist har også flere andre artikler om KI, som går mer i dybden på teknologien og forskningen som ligger bak de gjennombruddene vi har sett den siste tiden og hvor denne eksponentielle utviklingen kan lede oss. Men de stiller også spørsmål ved om vi nærmer oss en grense for hva som er mulig å få til med store språkmodeller som ligger bak dagens gjennombrudd. Både mengden tilgjengelig språkdata av høy nok kvalitet og et energibehov som vokser raskere enn datamengden som mates inn, kan legge begrensinger på den videre veksttakten. Men så er kanskje ikke helt usannsynlig at vi finner veier rundt denne type hindringer. Drøftinger av dette er det i artikkelen "Large, creative AI models will transform lives and labour markets".

The Economist har også utstyrt disse temaartiklene med en egen pedagogisk video som beskriver både truslene og mulighetene som ligger i en fortsatt utvikling av kunstig intelligens:

1 kommentar :

  1. Jeg har en fjerde modell, som jeg også argumenterer for i Aftenposten: https://www.aftenposten.no/meninger/debatt/i/5ByMxz/hva-maa-gjoeres-for-aa-styre-teknologiutviklingen I denne modellen må vi kollektivt utarbeide governance-modeller for digitale allmenninger. På noen områder er denne modellen langt mer liberal enn EU sin, på noen områder en god del strengere. Så lenge man opererer innenfor en digital allmenning gjelder ingen sterke begrensninger på utvikling, bare på deployment. For noen områder, som AI, så mener jeg vi bør gå med den modellen en del andre har snakket om, en sterk, internasjonal CERN-type organisasjon. Den vil være sentral i arbeidet med utvikling av allmenningene og spesielt den underliggende infrastrukturen. Først når denne CERN-type institusjonen har opparbeidet god forståelse for hva AI-systemet vil gjøre, vil det frigis for deployment. For systemer som har normative konsekvenser bør det være et krav om at det er i allmenningen.

    For andre områder, som sosiale medier, er det ikke nødvendig eller ønskelig med en CERN-type institusjon, der kan langt mindre organisasjoner publisere, og der trenger det heller ikke være et krav om at det er i allmenningen hvis det ikke har normative konsekvenser.

    Totalt tror at dette vil være et langt tryggere og for det meste mindre inngripende regime, selv om det setter en del begrensninger på forretningsmodeller for systemer med store samfunnsmessige konsekvenser.

    SvarSlett