For noen dager siden skrev jeg her på bloggen om en god, men ganske nøktern prognose fra OECD som forsøker å beregne de årlige produktivitetsgevinstene ti år fremover av å ta i bruk kunstig intelligens (KI). I det mest pessimistiske scenarioet blir den årlige veksten 0,2-0,4 prosent, mens det i det mest optimistiske scenarioet er 0,8 til 1,3 prosent ekstra årlig vekst på grunn av KI.
Men hva om forutsetningene som er brukt i denne og andre lignende analyser undervurderer endringskraften og derfor er helt feil? Feil fordi teknologiutviklingen går raskere, oppgavene KI løser bedre enn mennesker er langt flere og antall arbeidsplasser som helt eller i stor grad kan erstattes av KI er mye høyere enn det som ligger inne i forutsetningen i modellene.
Slike andre og langt mer disruptive scenarioer for effektene av KI er tema i the Economist denne helgen. Lederartikkelen, med den lange overskriften: "The economics of superintelligence - If Silicon Valley’s predictions are even close to being accurate, expect unprecedented upheaval", slår fast at kunstig intelligens har noen egenskaper som gjør at demografiske og menneskelige kapasitetsebegrensninger som kan bremse innovasjoner på samfunnsnivå på andre områder, i mindre grad gjør seg gjeldende her. KI er en annen type muliggjørende teknologi, blant annet fordi den kan lære av og bygge videre på egne innovasjoner på egenhånd. Uten at masse mennesker må være involvert:
"If computing power brings about technological advances without human input, and enough of the pay-off is reinvested in building still more powerful machines, wealth could accumulate at unprecedented speed. Economists have long been alive to the relentless mathematical logic of automating the discovery of ideas. According to a recent projection by Epoch AI, a bullish think-tank, once AI can carry out 30% of tasks, annual growth will exceed 20%."
Supervekst
Basert på på en slik analyse som legger vekt på det dynanamiske og disruptive når det gjelder hvor store endringer KI kan bidra til, beskiver The Economist to hovedretninger, i to ulike artikler. Der den ene vektlegger mulighetene for en vekst og en innovasjontakt verden aldri har opplevd før, og den andre er opptatt av farene ved å slippe teknologien løs uten tilstrekkelige sikkerhetsbarrierer. Den første har overskriften "What if AI made the world’s economic growth explode?" og beskriver blant annet forskjellen på vanlig automatisering og automatisering med innebygde læringssløyfer der KI-systemene driver sine egne FoU-prosjekter:
"Suppose production was fully automated, but technology did not improve. The economy would settle into a constant rate of growth, determined by the fraction of output that was saved and reinvested in building new machines.
Truly explosive growth requires AI to substitute for labour in the hardest task of all: making technology better. Will it be AI that delivers breakthroughs in biotechnology, green energy—and AI itself? AGI agents will, it is hoped, be able to execute complex, long-running tasks while interacting with computer interfaces. They will not just answer questions, but run projects. The AI Futures Project, a research group, forecasts that by the end of 2027, almost fully automated AI labs will be conducting scientific research. Sam Altman, the boss of OpenAI, has predicted that AI systems will probably start producing “novel insights” next year."
Artikkelen drøfter også hvordan forholdet mellom kapital og arbeid vil kunne endre seg radikalt dersom avhengighetsforholdet blir helt annerledes enn i dag. Den spekulerer også i hvordan den såkalte Baumol-effekten slår inn, det at virksomheter som fremdeles er avhengige av å ha ansatte, og må betale lønninger som ikke henger for langt etter de ledende teknologiselskapenes lønninger, vil slå ut i økte kostnader på samfunnsnivå.
Men så slår The Economist også fast at noen av de samme forholdene som bremser teknologidrevet supervekst i dag fortsatt vil være der i fremtiden, også med KI. Kanskje er begrensningene færre, men de finnes:
"A booming but workerless economy may be humanity’s ultimate destination. But, argues Tyler Cowen of George Mason University, (...), change will be slower than the underlying technology permits. “There’s a lot of factors of production…the stronger the AI is, the more the weaknesses of the other factors bind you,” he says. “It could be energy; it could be human stupidity; it could be regulation; it could be data constraints; it could just be institutional sluggishness.” Another possibility is that even a superintelligence would run out of ideas.
Eller, som The Economist minner om, så hjelper det ikke å produsere stadig mer effektive fiskere og fiskeredskaper hvis antall fisk i havet er det samme som før. Nå er det neppe slik at mulighetesrommet for gode ideer, nye forskningsgjennombrudd og skalerbare innovasjoner har de samme begrensningene som naturressurser, men det er jo mulig at avtagende avkastning på forskningsinnsatsen vil gjøre seg gjeldende også når vi bruker KI?
KI uten tilstrekkelig sikkerhet
I det andre scenarioet The Economist trekker opp, i artikkelen "AI labs’ all-or-nothing race leaves no time to fuss about safety" er ikke hovedproblemet at det blir fryktelig mye mer produktivitetsvekst og økonomisk vekst enn vi er vant til, men at man tar risiko i et tempo som er så høyt at det truer sikkerheten. Ikke fordi man ikke forstår farene, eller fordi man egentlig ønsker å ta uansvarlig høy risiko, men fordi selskapene ikke vil stå igjen på stasjonen når de andre sitter på toget:
"Qualms notwithstanding, however, both Western tech firms and their Chinese counterparts are, if anything, accelerating their pursuit of AGI. The logic is simple. They are all convinced that even if their firm or country were to pause or slow down, others would press ahead, so they might as well push on, too. The belief that the benefits of attaining agi or superintelligence are likely to accrue chiefly to those who make the initial breakthrough provides even more reason to rush."
Men hva er egentlig problemet med KI og sikkerhet? Verden går ikke akkurat under om vi stiller et litt lite gjennomtenkt spørsmål til Chat GPT? The Economist viser her til et godt notat fra Google DeepMind fra april som beskriver sikkerhetsutfordringene knyttet til generell kunstig intelligens og sorterer dem i fire ulike problemkategorier. The Economist oppsummerer:
"In Google DeepMind’s April paper, researchers (...) flagged four ways powerful AIs could go wrong. The most obvious is “misuse”, when a malicious individual or group harnesses AI to cause deliberate harm. Another is “misalignment”, the idea that the AI and its creators might not want the same things—the stuff of sci-fi movies. They also noted that AIs might cause harm by “mistake”, if real-world complexity prevented systems from understanding the full implications of their actions. Finally, they flagged a nebulous set of “structural risks”, events where no one person or model is at fault but harm still occurs.
To tanker i hodet, og kanskje tre
Noe av utfordringen med rask teknologisk endring, og som særlig gjelder KI, er at det utfordrer forestllingsevnen vår. Vi skjønner at ting går raskt og at det muliggjør store endringer i samfunn og arbeidsliv på mange områder samtidig, men vi vet ikke akkurat når og hvordan endringene vil komme.
Det fascinerende og litt problematiske med KI er dessuten at avstanden mellom optimister og pessimister er så stor. Det gjør det vanskelig å bygge en felles virkelighetsoppfatning og å lage politikk og strategier som får bred tilslutning. Kanskje er avstanden blitt noe mindre i tiden etter at Chat GPT ble sluppet i offentligheten i slutten av 2022, og vi alle har fått anledning til å prøve ut ulike verktøy som i mer eller mindre grad skal revolusjonere arbeidslivet. Hypen har nok avtatt litt, men det er fortsatt stor avstand mellom optimister og pessimister, også blant forskere og i teknologimiljøene.
Usikkerhet og mulighetene for ulike utfall gjør at vi i våre forestillinger om digitale fremtider må ta høyde for at det både er store muligheter og krevende etiske og kanskje eksistensielle utfordringer, og at vi må være bevisste på begge deler dersom regulatoriske myndigheter og bedriftenes etiske regelverk skal klare å balansere dette riktig. Og så minner The Economist også om at det også kan være et tredje alternativ: At utviklingen slett ikke går så fort som optimistene håper på og pessimistene frykter:
"Progress in AI may yet stall. The labs may run out of new training data; investors may run out of patience; regulators may decide to meddle. Anyway, for every expert predicting an AI apocalypse there is another who insists there is nothing to worry about. Yann LeCun of Meta thinks the fears are absurd. “Our relationship with future AI systems, including superintelligence, is that we’re going to be their boss.”".

Fin oppsummering! Jeg tror den følgende matrisen er det vi trenger for å sette ‘rett’ kontekst for slike analyser: Nøkkelen ligger i å forholde seg til den øvre, høyre kvadranten, fremfor å drive resonnementspingpong mellom de to nedre: AI som trussel vs AI som produktivitet. Mens den virkelige effekten sannsynligvis vi bli AI som strukturendring (reshuffle) - ref eks smarttelefonen som ikke først og fremst endret måten vi telefonerer på, men hele spekteret i hvordan vi interagerer med andre mennesker, produkter og tjenester:
SvarSletthttps://substack.com/home/post/p-168693566
Takk for god kommentar og strålende tips om artikkel og matrise. Jeg tenker at den type visualiserte modeller er veldig viktige pedagogiske hjelpemidler når vi skal sortere i endringsdrivere, hva vi kan påvirke og forestille oss hva ulike kombinasjoner av rammebetingelser og beslutninger vil lede til.
SvarSlett