Helt nytt er det ikke at vi er opptatt av dette. I Norge skrev vi en nasjonal strategi for kunstig intelligens som kom tidlig i 2020, en strategi jeg var med på å jobbe fram sammen med Nikolai Astrup, Jenny Clemet og embetsverket i KMD, og der en rekke eksperter, virksomheter og organisasjoner ble invitert inn og bidro i dette arbeidet. Og på samme tid var EU i gang med et viktig arbeid med et nytt felles lovverk, en Artificial Intelligence Act som nå er i ferd med å bli europeisk og, antar jeg, etter hvert norsk lov.
Disse dokumentenes styrke ligger ikke i at de prøver å spå teknologiutviklingen, Verken hvor fort det vil gå, eller hva slags anvendelsesområder som vil kreve særlig stimulans eller begrensninger er presist beskrevet, men de trekker opp viktige prinsipielle, etiske og samfunnsmessige hensyn vi må være opptatt av å ivareta i møte med nye teknologiske systemer. Blant annet sikkerhet, personvern, ikke-diskriminering og opphavsrettsbeskyttelse. Og hensynet til åpenhet og dokumenterbarhet må være ivaretatt når det gjelder beslutninger som gjelder borgere og virksomheter. Vi kommer langt om vi lar bredt forankrede verdier og prinsipper sette rammene for akseptabel bruk av teknologi, og ikke gjør det i omvendt rekkefølge.
Men selv om kunstig intelligens ikke er helt nytt i samfunnsdebatten så har vi det siste halvåret fått et slags "KI-sjokk" på grunn av tjenester som Chat GPT, Dall-E og Midjourney, Plutselig er dette tjenester som er blitt tilgjengelige for oss alle og som både imponerer og skremmer når det gjelder hvor kraftfulle, kreative og raske de er. Og hvor gode de er til å tilpasse svarene til formkravene som ligger i bestillingen, enten det er å male malerier som Munch, skrive sangtekster som The Clash eller skrive prosa som Shakespeare, for å nevne noen eksempler på bestillinger jeg har prøvd selv. Samtidig virker disse modellene slik at de kan ha et svært lite presist forhold til sannhet og slår fast ting med stor selvsikkerhet som ofte høres ut som de kan være sannsynlige, og sikkert passer i statistiske språkmodeller, men er fullstendig feil. "Hallucination" eller "artificial hallucination" er det blitt døpt.
Hvordan skal vi som samfunn forholde oss til disse nye KI-tjenestene og det som kommer i neste runde som vil være enda mer avansert, og sikkert betydelig mer korrekt når datamodellene blir større og bedre trent? Og hva skal vi gjøre med KI som lærer av egne suksesser og feil, og trener seg selv til å bli stadig bedre? Og så tar sine egne avgjørelser om utviklingen videre? Dette er tema i The Economists siste nummer der KI på forsiden er utstyrt med både glorie og djevelhorn. Og der lederartikkelen har fått tittelen "How to worry wisely about artificial intelligence?".
Jeg synes The Economist gir en god og leseverdig analyse av hvordan vi skal gjøre en slik kunnskapsbasert og klok gjennomgang av bekymringene knyttet til farene ved kunstig intelligens. De har en del betraktninger om de potensielle eksistensielle truslene ved KI, og det store spriket i syn på hva slags trussel KI kan utgjøre mot menneskeheten, og hvordan den type trusler må møtes. Men peker på at regulering vil være nødvendig også av helt andre og mindre dramatiske grunner. Utfordringen da ligger i å finne den riktige balansen mellom hvor mye frihet det skal være til å teste ut helt nye ting og hvor mye det skal reguleres, The Economist skriver:
"Regulation is needed, but for more mundane reasons than saving humanity. Existing ai systems raise real concerns about bias, privacy and intellectual-property rights. As the technology advances, other problems could become apparent. The key is to balance the promise of ai with an assessment of the risks, and to be ready to adapt.So far governments are taking three different approaches. At one end of the spectrum is Britain, which has proposed a “light-touch” approach with no new rules or regulatory bodies, but applies existing regulations to ai systems. The aim is to boost investment and turn Britain into an “ai superpower”. America has taken a similar approach, though the Biden administration is now seeking public views on what a rulebook might look like.
The EU is taking a tougher line. Its proposed law categorises different uses of ai by the degree of risk, and requires increasingly stringent monitoring and disclosure as the degree of risk rises from, say, music-recommendation to self-driving cars. Some uses of ai are banned altogether, such as subliminal advertising and remote biometrics. Firms that break the rules will be fined. For some critics, these regulations are too stifling."
But others say an even sterner approach is needed. Governments should treat ai like medicines, with a dedicated regulator, strict testing and pre-approval before public release. China is doing some of this, requiring firms to register ai products and undergo a security review before release. But safety may be less of a motive than politics: a key requirement is that ais’ output reflects the “core value of socialism”.
Jeg har en fjerde modell, som jeg også argumenterer for i Aftenposten: https://www.aftenposten.no/meninger/debatt/i/5ByMxz/hva-maa-gjoeres-for-aa-styre-teknologiutviklingen I denne modellen må vi kollektivt utarbeide governance-modeller for digitale allmenninger. På noen områder er denne modellen langt mer liberal enn EU sin, på noen områder en god del strengere. Så lenge man opererer innenfor en digital allmenning gjelder ingen sterke begrensninger på utvikling, bare på deployment. For noen områder, som AI, så mener jeg vi bør gå med den modellen en del andre har snakket om, en sterk, internasjonal CERN-type organisasjon. Den vil være sentral i arbeidet med utvikling av allmenningene og spesielt den underliggende infrastrukturen. Først når denne CERN-type institusjonen har opparbeidet god forståelse for hva AI-systemet vil gjøre, vil det frigis for deployment. For systemer som har normative konsekvenser bør det være et krav om at det er i allmenningen.
SvarSlettFor andre områder, som sosiale medier, er det ikke nødvendig eller ønskelig med en CERN-type institusjon, der kan langt mindre organisasjoner publisere, og der trenger det heller ikke være et krav om at det er i allmenningen hvis det ikke har normative konsekvenser.
Totalt tror at dette vil være et langt tryggere og for det meste mindre inngripende regime, selv om det setter en del begrensninger på forretningsmodeller for systemer med store samfunnsmessige konsekvenser.