onsdag 30. juli 2025

Mary Meekers 340-siders KI-presentasjon

Trends - Artificial Intelligence (AI)
Hvor raskt går utviklingen når det gjelder kunstig intelligens (KI), og hva kan man egentlig måle? Datakraft? FoU-innsats? Antall brukere? Lønnsomhet? Eller kanskje effekt for kundene?

Bond Capital har gjort en strålende jobb når det gjelder å få fram en helt massiv 340 siders powerpoint-presentasjon med masse grafer, analyser og sammenligninger. 

Den ligger åpent tilgjengelig for alle i en pdf-versjon her på Bond Capitals nettsider. Kortversjonen er at dette er en svært interessant gjennomgang av investeringer i FoU og datakraft, energibruk, vekst i antall brukere, opptrening og drift av KI-systemer, og mye mer.

Mary Meekers metode

Men her må jeg et øyeblikk bevege meg ut på et sidespor og nevne at selveste Mary Meeker er tilbake i sin gamle rolle som formidler, og er i spissen for teamet som har satt sammen denne enorme presentasjonen. Som noen vil huske var hun en av de store internettoptimistene på slutten av 90-tallet og skrev dengang analyser for Morgan Stanley. Hun ble også kraftig kritisert for å ikke i tilstrekkelig grad advare mot boblen der mange investerte i ting som viste seg å ikke leve opp til hypen.

Men Mary Meeker fortsatte å være opptatt av de underliggende drivkreftene, teknologisk og kommersielt, og var dessuten også involvert i flere av selskapene. Hun var blant annet tilrettelegger for Googles børsnotering 2004. Og hun har fortsatt å holde foredrag og skrive rapporter om teknologi, internett og eksponentiell vekst. Selv om dotcom-boblen sprakk for 25 år siden var det jo ikke slik at internett, mobiltelefoni og de fremvoksende tech-selskapene ikke var viktige lenger. Tvert imot så har Google, Microsoft, Amazon, Apple, Meta og Nvidia i ettertid blitt de mest verdifulle selskapene i verden.

KI-vekst og internett-vekst

Jeg har flere ganger skrevet innlegg om, og lenket til, disse rapportene til Mary Meeker her på bloggen, blant annet i 2010, 2013 og 2018 da hun jobbet i Kleiner Perkins. På Bond Capitals nettsider er det lenke til alle disse mer eller mindre årlige presentajonene fra 1996 og til og med 2019. Så ble det brått stille, og jeg har savnet å ha disse store trend-oversiktene, og jeg må innrømme at jeg har søkt på nettet for å finne nye utgaver flere ganger,. Men mai i år kom det endelig en ny utgave, med en vri: Denne gangen er det KI-trender som er gjenstand for analysen. I innledningen formulerer hun sitt hovedsyn slik:

"As investors, we always assume everything can go wrong, but the exciting part is the consideration of what can go right. Time and time again, the case for optimism is one of the best bets one can make. The magic of watching AI do your work for you feels like the early days of email and web search – technologies that fundamentally changed our world. The better / faster / cheaper impacts of AI seem just as magical, but even quicker."

Presentasjonen er ikke akkurat siste nytt når det gjelder visuell design, og er slett ikke utstyrt med kule KI-genererte visualiseringer, men er herlig gammeldags når det gjelder utformingen. Her er det enkel klipp-og-lim av bilder, tekst, men aller mest grafer og søylediagrammer som gjelder. 

De 340 sidene er delt inn i 9 kapitler. Det første har et overordnet blitt på tempoet i utviklingen og beskriver hvor raskt vi har fått tilgang til verktøy som vinner matematikkolympiader og som det på stadig flere områder er vanskskelig å avsløre som datamaskiner og ikke mennesker. Ikke bare kan de skrive anvanserte tekster lynraskt, men det produserer bilder og film, og lager og oversetter tale. Og det blir tatt i bruk. Chat GPT brukte to år på å komme opp i 365 milliarder årlige søk, i 2024. Googles søkemotor brukte 11 år før det ble så mange, i 2011.

KI-anvendelser i næringslivet

Kapittel 2 i presentasjonen (fra side 52) gir et overblikk over bedrifter og bransjer der det investeres tungt i KI og som er i gang med å ta i bruk kunstig intelligens i ulike kjerneprosessser. En morsom indikator er hvor ofte KI nevnes i store selskapers kvartalsvise resultatpresentasjoner, noe som skjer veldig ofte for tiden. Men enda mer overbevisende er eksempler og statistikker over hvordan KI tas i bruk i YUM Brands 25 000 restauranter og i store bankers kundedialoger. En graf i pakken viser veksten i antall "medical devices" med KI som er godkjent av regulatoriske myndigheter i USA. En annen viser hvor mye kortere tid "medical R&D-timelines" er blitt med bruk av KI. 

Her finner vi også grafer som viser hvordan FoU-investeringene til de seks største tech-selskapene er i ferd med å øke ytterligere, og at de har nok penger på bok til å gjøre det, og hvordan investeringer i datasentre og annen infrastruktur i øyeblikket vokser kraftig. Det er også en tilsvarende vekst i elektrisitetsforbruket, spesielt i USA som har tatt ledelsen i å bygge nye gigantiske datasentre. xAIs datasenter Colossus i Memphis pekes på som et eksempel , et datasenter de hevder har verdens største superdatamaskin i et enormt datasenter det tok 122 dager å bygge, omtrent halvparten at tiden det tar å bygge en ny enebolig i USA.

Hva så med KI brukt til å løse oppgaver i fysiske sammenhenger, for eksempel selvkjørende biler,  industriroboter, medisinsk utstyr og forsvarsteknologi? Dette er ikke hovedtemaer i denne presentasjonen, men det er noen plansjer som breskriver utvalgte caser og trender. vi kan for eksempel se at Waymo, det Google-eide taxiselselskapet med selvkjørende biler, på 20 måneder har økt sin markedsandel på betalte turer fra 0 til 27 prosent i San Francisco. Det er også eksempler på KI- anvendelser i forsvarsindustri, gruvedrift og ugressfjerning i landbruket, for å nevne noen.

KI-demografien

Presentasjonen nevner noen interessante utviklingstrekk når det gjelder bruken av ulike KI-tjenester. I motsetning til da internett kom, og USA dominerte stort i starten, og det spredte seg globalt etter hvert, så er bruken av KI langt mer jevnt distribuert over hele verden allerede i utgangspunktet. Kina spiller en ledende rolle ikke bare i bruk, men også i utvikling av KI, og har egne forskningsmiljøer, hardwareaktører og tjensteutviklere som er mer eller mindre på nivå med de amerikanske.

Kampen mellom selskapene om å ha flest brukere er viktig. Det er skarp konkurranse og det investeres helt ekstreme beløp i å utvikle stadig bedre datamodeller og tjenester som går dypere enn å bare svare raskt på enkle spørsmål. Rapporten nevner blant annet såkalte "multimodale" egenskaper, der det ikke bare skrives tekst, men også produseres bilder, lyd og video sammen. Det lages tjenester som produserer mer grundige og utredningstunge analyser, som Google Gemini Deep Research, Chat GPT Deep Research eller xAI Groks Deep Search.

Men selv om det knivskarp  konkurranse om lederrollen teknologisk og å ha de beste dataene, forteller denne rapporten at Open AIs Chat GPT så langt har klart å opparbeide seg en suveren ledelse når det gjelder antall brukere. Google Gemini, Grok, Perplexity, Deep Seek og Anthropics Claude kommer langt bak både på PC og på mobil-app. Men også disse opplever nå en kraftig vekst:

"At a global level, OpenAI’s ChatGPT remains the clear leader in both desktop and mobile user share. But underneath the surface, the market is shifting. Platforms like Anthropic’s Claude are gaining momentum, and Google’s Gemini continues to grow. xAI’s Grok posted a staggering +294% increase in global website visits month-over-month according to Similarweb – making it the fastest-growing AI assistant during the 2/25-3/25 window.

"Geography is also playing an increasingly central role in shaping which models win. ChatGPT dominates in most countries – excluding Russia and China, where ChatGPT cannot operate and DeepSeek is strong. China users are turning to local models at scale. According to Roland Berger Consulting, the top 10 AI apps by monthly active users in China are domestically developed…DeepSeek, Kimi, Nami AI, and ERNIE Bot are each racking up tens of millions of users. The story is different outside China, where ChatGPT leads by a wide margin."

Dilemmaer og usikkerheter

Tallene, casene og trendene i rapporten er interessante, men kanskje det mest interessante er de mer fremadskuende analysene av hvor dette bærer. Hvor sørger teknologiutviklingen og stordriftsfordelene for at kostnadene faller raskt, og hvor går de opp? Hvilke allianser, partnerskap og foretningsmodeller ser lovende ut? Proprietære systemer eller open source? Er det store horisontale KI-plattformer som utvikles og drives av de største tech-aktørene som er best posisjonert, eller spesialiserte bransjeeksperter som utvikler forretningsnær teknologi som vil prege utviklingen?

Presentasjonen trekker frem flere interessante uavklarte spørsmål og mulige interessekonflikter og kamper mellom aktørene ikke bare om størrelse, men også om forretningsmodeller. Jeg kan nevne noen:

Investeringskostnader vs drift: Kostnadsutviklingen for KI er i endring. Det investeres stadig flere milliarder i utvikling og trening av språkmodeller, i datakraft og annen infrastruktur, og tilgang til stadig større datasett, men det kan virke som rommet for å differensiere seg gjennom slike investeringer, og ha et langt bedre produkt enn konkurrentene, ser ut til å krympe. Samtidig er det slik at driftskostnadene for kundene faller. Man får gjort mye mer for mindre. Det skjer en maktforskyvning fra de store kapitalintensive KI-utviklerne til kundene og innovative og disruptive aktører kundene samarbeider med.

"To understand where AI model economics may be heading, one can look at the mounting tension between capabilities and costs. Training the most powerful large language models (LLMs) has become one of the most expensive / capital-intensive efforts in human history. As the frontier of performance pushes toward ever-larger parameter counts and more complex architectures, model training costs are rising into the billions of dollars.

 Ironically, this race to build the most capable general-purpose models may be accelerating commoditization and driving diminishing returns, as output quality converges across players and differentiation becomes harder to sustain. At the same time, the cost of applying/using these models – known as inference – is falling quickly. Hardware is improving – for example, NVIDIA’s 2024 Blackwell GPU consumes 105,000x less energy per token than its 2014 Kepler GPU predecessor. Couple that with breakthroughs in models’ algorithmic efficiency, and the cost of inference is plummeting."

Horisontale plattformer vs vertikale spesialister: En annen dimensjon der kampen om forretningskundene vil foregå er mellom store etablerte plattformselskaper og softwareleverandører som allerede har en stor kundebaser, og bruker denne som univers for å markedsføre nye KI-tjenester. Det gjelder naturligvis Microsoft, Google og Amazon, men også Spotify, Duolingo, Adobe, Canva og mange andre kjente aktører putter KI-tjenester på det de tilbyr kundene. Og havner i et terreng der de møter konkurrense fra bransjespesialister innenfor byggenæring, finans, juss, transport og helse, folk som kan bruke sin bransje- og fagekspertise til å bygge tilliten som trengs:

"For decades, business software followed a familiar pattern: build a specialized tool, sell it to a narrow user base, and scale up within a vertical. This was the age of vertical SaaS – Toast for restaurants, Guidewire for insurance, Veeva for life sciences...Each tool solved a deep, narrow problem. But with the rise of foundation models and generative AI, others are gunning for these prizes. Enter the horizontal enterprise platforms – horizontal layers that combines AI-native productivity, search, communication, and knowledge management into one unified interface. Think of it as Slack meets Notion meets ChatGPT, all in one platform."

Lukkede systemer vs open source: En tredje dimensjon i kampen om forretningsmodellen er om programvaren og modellene er åpne og mulige å tilpasse, og dermed mulige å laste ned og intallere lokalt på egen PC uten brysom datadeling med en leverandør, eller om det er lukkede systemer som vil vinne frem fordi de oppleves som sikrere, eller fordi de er lettere for eierne å forvare å bruke milliardbeløp på å utvikle noe man har kontroll over. Her er det også et viktig spørsmål hva slags rammebetingelser som finnes for it-utviklerne, de som faktisk skal lage tjenestene og verktøyene.

"Platforms like Hugging Face have made it frictionless to download models like Meta’s Llama or Mistral’s Mixtral, giving startups, academics, and governments access to frontier-level AI without billion-dollar budgets. Open-source AI has become the garage lab of the modern tech era: fast, messy, global, and fiercely collaborative. And China (as of Q2:25) – based on the number of large-scale AI models released – is leading the open-source race, with three large-scale models released in 2025 – DeepSeek-R1, Alibaba Qwen-32B and Baidu Ernie 4.5.

The split has consequences. Open-source is fueling sovereign AI initiatives, local language models, and community-led innovation. Closed models, meanwhile, are dominating consumer market share and large enterprise adoption. We’re watching two philosophies unfold in parallel – freedom vs. control, speed vs. safety, openness vs. optimization – each shaping not just how AI works, but who gets to wield it."

Jeg tenker at dette er veivalg vi bør interessere oss for, også i Norge. Det er ikke slik at vi nødvendigvis har avgjørende makt og innflytelse på disse områdene, men både myndigheters og privates makt som kompetente kunder har betydning. Dessuten kan myndigheter gjennom sine reguleringer og forsknings- og innovasjonssatsinger bidra til å dytte ting i en ønsket retning. Men da hjelper det å vite hva man ønsker.

mandag 28. juli 2025

Supervekst eller superkatastrofe med KI?

For noen dager siden skrev jeg her på bloggen om en god, men ganske nøktern prognose fra OECD som forsøker å beregne de årlige produktivitetsgevinstene ti år fremover av å ta i bruk kunstig intelligens (KI). I det mest pessimistiske scenarioet blir den årlige veksten 0,2-0,4 prosent, mens det i det mest optimistiske scenarioet er 0,8 til 1,3 prosent ekstra årlig vekst på grunn av KI.

Men hva om forutsetningene som er brukt i denne og andre lignende analyser undervurderer endringskraften og derfor er helt feil? Feil fordi teknologiutviklingen går raskere, oppgavene KI løser bedre enn mennesker er langt flere og antall arbeidsplasser som helt eller i stor grad kan erstattes av KI er mye høyere enn det som ligger inne i forutsetningen i modellene.

Slike andre og langt mer disruptive scenarioer for effektene av KI er tema i the Economist denne helgen. Lederartikkelen, med den lange overskriften: "The economics of superintelligence - If Silicon Valley’s predictions are even close to being accurate, expect unprecedented upheaval", slår fast at kunstig intelligens har noen egenskaper som gjør at demografiske og menneskelige kapasitetsebegrensninger som kan bremse innovasjoner på samfunnsnivå på andre områder, i mindre grad gjør seg gjeldende her. KI er en annen type muliggjørende teknologi, blant annet fordi den kan lære av og bygge videre på egne innovasjoner på egenhånd. Uten at masse mennesker må være involvert:

"If computing power brings about technological advances without human input, and enough of the pay-off is reinvested in building still more powerful machines, wealth could accumulate at unprecedented speed. Economists have long been alive to the relentless mathematical logic of automating the discovery of ideas. According to a recent projection by Epoch AI, a bullish think-tank, once AI can carry out 30% of tasks, annual growth will exceed 20%."

Supervekst

Basert på på en slik analyse som legger vekt på det dynanamiske og disruptive når det gjelder hvor store endringer KI kan bidra til, beskiver The Economist to hovedretninger, i to ulike artikler. Der den ene vektlegger mulighetene for en vekst og en innovasjontakt verden aldri har opplevd før, og den andre er opptatt av farene ved å slippe teknologien løs uten tilstrekkelige sikkerhetsbarrierer. Den første har overskriften "What if AI made the world’s economic growth explode?" og beskriver blant annet forskjellen på vanlig automatisering og automatisering med innebygde læringssløyfer der KI-systemene driver sine egne FoU-prosjekter:

"Suppose production was fully automated, but technology did not improve. The economy would settle into a constant rate of growth, determined by the fraction of output that was saved and reinvested in building new machines. 

Truly explosive growth requires AI to substitute for labour in the hardest task of all: making technology better. Will it be AI that delivers breakthroughs in biotechnology, green energy—and AI itself? AGI agents will, it is hoped, be able to execute complex, long-running tasks while interacting with computer interfaces. They will not just answer questions, but run projects. The AI Futures Project, a research group, forecasts that by the end of 2027, almost fully automated AI labs will be conducting scientific research. Sam Altman, the boss of OpenAI, has predicted that AI systems will probably start producing “novel insights” next year."

Artikkelen drøfter også hvordan forholdet mellom kapital og arbeid vil kunne endre seg radikalt dersom avhengighetsforholdet blir helt annerledes enn i dag. Den spekulerer også i hvordan den såkalte Baumol-effekten slår inn, det at virksomheter som fremdeles er avhengige av å ha ansatte, og må betale lønninger som ikke henger for langt etter de ledende teknologiselskapenes lønninger, vil slå ut i økte kostnader på samfunnsnivå. 

Men så slår The Economist også fast at noen av de samme forholdene som bremser teknologidrevet supervekst i dag fortsatt vil være der i fremtiden, også med KI. Kanskje er begrensningene færre, men de finnes:

"A booming but workerless economy may be humanity’s ultimate destination. But, argues Tyler Cowen of George Mason University, (...), change will be slower than the underlying technology permits. “There’s a lot of factors of production…the stronger the AI is, the more the weaknesses of the other factors bind you,” he says. “It could be energy; it could be human stupidity; it could be regulation; it could be data constraints; it could just be institutional sluggishness.” Another possibility is that even a superintelligence would run out of ideas.

Eller, som The Economist minner om, så hjelper det ikke å produsere stadig mer effektive fiskere og fiskeredskaper hvis antall fisk i havet er det samme som før. Nå er det neppe slik at mulighetesrommet for gode ideer, nye forskningsgjennombrudd og skalerbare innovasjoner har de samme begrensningene som naturressurser, men det er jo mulig at avtagende avkastning på forskningsinnsatsen vil gjøre seg gjeldende også når vi bruker KI? 

KI uten tilstrekkelig sikkerhet

I det andre scenarioet The Economist trekker opp, i artikkelen "AI labs’ all-or-nothing race leaves no time to fuss about safety" er ikke hovedproblemet at det blir fryktelig mye mer produktivitetsvekst og økonomisk vekst enn vi er vant til, men at man tar risiko i et tempo som er så høyt at det truer sikkerheten. Ikke fordi man ikke forstår farene, eller fordi man egentlig ønsker å ta uansvarlig høy risiko, men fordi selskapene ikke vil stå igjen på stasjonen når de andre sitter på toget:

"Qualms notwithstanding, however, both Western tech firms and their Chinese counterparts are, if anything, accelerating their pursuit of AGI. The logic is simple. They are all convinced that even if their firm or country were to pause or slow down, others would press ahead, so they might as well push on, too. The belief that the benefits of attaining agi or superintelligence are likely to accrue chiefly to those who make the initial breakthrough provides even more reason to rush."

Men hva er egentlig problemet med KI og sikkerhet? Verden går ikke akkurat under om vi stiller et litt lite gjennomtenkt spørsmål til Chat GPT? The Economist viser her til et godt notat fra Google DeepMind fra april som beskriver sikkerhetsutfordringene knyttet til generell kunstig intelligens og sorterer dem i fire ulike problemkategorier. The Economist oppsummerer:

"In Google DeepMind’s April paper, researchers (...) flagged four ways powerful AIs could go wrong. The most obvious is “misuse”, when a malicious individual or group harnesses AI to cause deliberate harm. Another is “misalignment”, the idea that the AI and its creators might not want the same things—the stuff of sci-fi movies. They also noted that AIs might cause harm by “mistake”, if real-world complexity prevented systems from understanding the full implications of their actions. Finally, they flagged a nebulous set of “structural risks”, events where no one person or model is at fault but harm still occurs.

To tanker i hodet, og kanskje tre

Noe av utfordringen med rask teknologisk endring, og som særlig gjelder KI, er at det utfordrer forestllingsevnen vår. Vi skjønner at ting går raskt og at det muliggjør store endringer i samfunn og arbeidsliv på mange områder samtidig, men vi vet ikke akkurat når og hvordan endringene vil komme. 

Det fascinerende og litt problematiske med KI er dessuten at avstanden mellom optimister og pessimister er så stor. Det gjør det vanskelig å bygge en felles virkelighetsoppfatning og å lage politikk og strategier som får bred tilslutning. Kanskje er avstanden blitt noe mindre i tiden etter at Chat GPT ble sluppet i offentligheten i slutten av 2022, og vi alle har fått anledning til å prøve ut ulike verktøy som i mer eller mindre grad skal revolusjonere arbeidslivet. Hypen har nok avtatt litt, men det er fortsatt stor avstand mellom optimister og pessimister, også blant forskere og i teknologimiljøene.

Usikkerhet og mulighetene for ulike utfall gjør at vi i våre forestillinger om digitale fremtider må ta høyde for at det både er store muligheter og krevende etiske og kanskje eksistensielle utfordringer, og at vi må være bevisste på begge deler dersom regulatoriske myndigheter og bedriftenes etiske regelverk skal klare å balansere dette riktig. Og så minner The Economist også om at det også kan være et tredje alternativ: At utviklingen slett ikke går så fort som optimistene håper på og pessimistene frykter:

"Progress in AI may yet stall. The labs may run out of new training data; investors may run out of patience; regulators may decide to meddle. Anyway, for every expert predicting an AI apocalypse there is another who insists there is nothing to worry about. Yann LeCun of Meta thinks the fears are absurd. “Our relationship with future AI systems, including superintelligence, is that we’re going to be their boss.”".

torsdag 24. juli 2025

Bredbåndssuksessen fortsetter

Nkoms dashbord for bredbåndsdekning

Hvordan går det med bredbåndsdekningen i Norge? Temmelig bra, viser det seg. Nasjonal kommunikasjonsmyndighet (Nkom) la i mai frem rapporten "Husstandsdekning for fast bredbånd 2024" som kan fortelle at det ved utgangen av 2024 var en nasjonal dekning på 99,1 prosent for tilbud om bredbånd med hastigheter på 100 Mbit/s og på 96,2 prosent for hastigheter på 1 Gbit/s.

Med tanke på at mye av debatten har handlet om hvor dårllig bredbåndsdekningen i distriktene er, og at staten må bruke milliardbeløp på å sikre bedre dekning, så er det interessant å lese at det er i spredtbygde områder forbedringene er størst, og at dette i all hovesak har skjedd uten offentlige penger. Kombinasjonen av teknologiutviklng, bredbånds- og mobilselskapenes milliardinvesteringer, og kundenes betalingsvilje for film, serier og fotball på nett, har sørget for at vi har et svært godt bredbåndstilbud i Norge.

Den norske bredbåndssuksessen

Denne suksessen har ikke kommet over natten, men skyldes en lykkelig kombinasjonen av betalingsvillige innbyggere, store infrastrukturinvesteringer fra de private selskapene og myndigheter som har laget gode regulatoriske rammebetingelser for mobil og bredbåndsselskapene. I tillegg har teknlogiutvikingen gjort det mulig å tilby bredbånd til husstander via 5G, og mer nylig via satelitt, slik at der er konkurranse ikke bare mellom leverandører av samme teknologi, men også mellom bredbånd levert på ulike teknologier.

Myndighetene har vært opptatt av å ha en teknologinøytral tilnærming og legge til rette for konkurranse, men samtidig gjort det lønnsomt å ha god dekning i hele landet. Hovedstrategien i samspillet mellom myndigehter og de private leverandørene er grundig og godt beskrevet i en stortingsmelding om den digitale grunnmuren fra 2021, som senere er fulgt opp med en ny og modernisert lov om elektronisk kommunikasjon, vedtatt i 2024. Selv om statlige og fylkeskommunale tilskudd finnes, og har spilt en rolle i noen områder, er dette en suksess markedet må ta hovedæren for.

Forestillingen om at det trengs flere statlige milliarder

Likevel er det en utbredt forestilling om at det det trengs langt høyere statlige subsidier til bredbånd, en forestilling som har vært forbausende gjenstridig både hos politikere og næringslivsorganisasjoner. Man skulle jo tro at næringslivsorganisasjonene heller burde prioritere å fjerne diskriminerende eierskapsbeskatning (formuesskatt) og forbedre andre generelle rammevilkår, fremfor å skrive opprop som krever milliardbeløp til oppgaver markedet tar seg av.

Jeg irriterte meg såpass over dette ropet på mer subsidier at jeg skrev et innlegg her på bloggen høsten 2022 med overskriften "Den norske bredbåndssuksessen". Allerede da kunne jeg konstaterte at bredbåndsdekningen i Norge for lengst hadde overoppfylt de politiske målene som var satt. Jeg vil minne om hva de var: Stoltenberg-regjeringen 2005-2013 hadde ingen bredbåndsmål, tror jeg. Solberg-regjeringen 2013-2021 satte i stortingsmeldingen om Norges digitale agenda i 2016 et mål om et tilbud om bredbånd med 100 Mbit/s til minst 90 prosent av husstandene innen utgangen av 2020. På det tidspunktet var det bare 73 prosent av husstandene nasjonalt som hadde et slikt tilbud og det var store geografiske ulikheter. 

Målet fra 2016 virket derfor veldig krevende å nå, men det ble nådd med god margin. Et mål om gigabithastigheter til alle husholdningene var derimot ikke nevnt i 2016 og ble vurdert som temmelig utenkelig da. Men fiberutrullingen gikk over all forventning på på den tiden, og erstattet andre teknologier. Våren 2022 var det derfor blitt slik at 93,6 prosent av husstandene hadde tilgang til over 100 Mbit/s nedstrømss hastighet og 92,5 prosent av husstandene hadde tilgang til Gbit/s nedstrøms hastighet, en økning fra litt over 50 prosent bare to år tidligere. Og så nevnt innlednignsvis er disse tallene i 2024 økt til 99,1 prosent og 96,2 prosent.

Større tilbud enn etterspørsel?

I stedet for å lure på hvordan vi kaste enda mer statlige penger etter noe som ser ut til å løses seg veldig godt uten, er det mer interessant å se på hvor godt godt dette gode bredbåndstilbudet harmonerer med etterspørselen etter bredbånd i befolkningen og i næringlivet. Og om det er strategier som kan bidra enda mer kostnadseffektive måter å sørge for bedre dekning der det er udekkede behov, for eksempel langs veier, jernbane eller i fritidsboliger. Vi kan for eksempel lure på:

  • Er det samsvar mellom tilgjengeligheten av høyhastighets bredbånd til nesten alle husstander og den faktiske tilknytningen til nettet? Det er bra med tilbud, men vil kundene ha det?
  • Hva er sammehengen mellom det at 96 prosent har tilbud om bredbånd med Gbit/s hastighet og de hastighetene husstandene faktisk velger å abonnere på? Synes de at de trenger 1000 mbit/s?
  • Fast trådløst bredbånd (FTB) via 5G gjorde har gjort det mulig å gi et mer kostnadseffektivt høyhastighets bredbåndstilbud i flere spredbygde områder. Kan bredbånd via satelitt ytterligere bidra til kostnadseffektivt tilbud til alle?
Nkom noen interessante tall om hva bredbåndskundene velger fra andre undersøkelser, som også er referet til i slutten av denne rapporten, og som svarer på noe av det jeg lurer på. Når det gjelder tilkyningen til høyhastighets bredbånd er det i følge Nkom slik at ikke alle som kan ha det velger å benytte seg av det:

"Nasjonalt er over 78 prosent av husstandene tilkoblet fiberbredbånd. Sett i lys av at dekningen er på 91 prosent (jf. Figur 3), er det fremdeles en stor differanse mellom husstandenes muligheter for tilkobling til fiberbredbånd og hvor mange husstander som fysisk er tilkoblet."

Det er med andre ord slik at tilbudet om raskt bredbånd er en del større enn etterspørselen. Antall tilknytninger øker, men det er ikke obligatorisk å ha bredbånd i Norge, og ikke alle synes de trenger det. Og blant de som er blitt tilkoblet er det slik at selv om de ønsker å ha bredbånd, så er det ikke nødvendigigvis slik at de trenger de raskeste bredbåndshastinghetene. Nkom skriver at:

"Den gjennomsnittlige nedlastingshastigheten for abonnementene har økt fra 304 Mbit/s i 2023 til 325 Mbit/s i 2024. Median, forstått som det «vanligste» verdien av samlingen av abonnementer, har økt fra 200 i 2023 til 250 i 2024. Oppgangen skal sees i lys av at tilbyderne i økende grad endrer sine kjerneprodukter til å inkludere stadig høyere hastighet. Det observeres også at abonnement med høy nedlastingshastighet (1 GB/s og mer) fortsetter økningen. Per utgangen av 2024 utgjør abonnement med nedlastingshastighet på 1 GB/s eller mer, nesten 7,5 prosent av samlede abonnement. Dette er en oppgang fra 6,5 prosent i 2023.

En solid digital grunnmur

Eller for å si det på en annen måte: Mens 96,2 prosent av husstandene har mulighet for å ha bredbånd med en hastighet på 1 Gbit/s er det bare 7,5 prosent som faktisk har valgt å ha det. Resten klarer jeg med mindre. Om ikke huset ditt er fullt av TV-apparater som er på og spillkonsoller som er i bruk samtidig, så er jo ikke det så rart. Staten kan jo ikke akkurat tvinge folk til å bruke noe de ikke synes de trenger.

På den annen side betyr dette at Norge har en fantastisk digital infrastruktur for høyhastighets kommunikasjon som er godt tilpasset en fremtid med enda mer hjemmekontor, medier og underholdning, og hjemmebasert etter- og videreutdanning. Og skulle vi bli rammet av en pandemi så er vi bedre rigget enn de fleste andre for det også. Norge er rett og slett et bra land å prøve ut nye produkter og tjenester fordi vi ligger langt fremme når det gjelder vår digitale grunnmur.

mandag 21. juli 2025

OECD om produktivitetsvekst og KI

Hvor mye kan bedrifters produktivitet øke når de tar i bruk kunstig intellligens (KI)? Hvis stadig flere bedrifter i en bransje tar i bruk KI, hva betyr det for denne bransjens produktivitetsutvikling, og i neste omgang for et helt lands økonomiske vekst de kommende årene? Og hvilke bransjer ligger best til rette for å ta i bruk KI i sine sentrale virksomhetsproesser?

Dette er noen av temaene i et arbeidsnotat OECD har gitt ut nå i sommer og som inngår i en større serie av analyser og notater som heter "OECD Artificial intelligens  papers" om KI-relaterte temaer. Kunnskap som politikere, forvaltning, akademia, arbeidslivsorganisasjoner og styrer og ledelser i næringslivet bør bli enda mer opptatt av fremover. 

OECD er en viktig kilde for slik innsikt. Norge har vært med i OECD siden oppstarten i 1960. En av gevinstene ved dette medlemsskapet er nettopp å ha innflytelse på hvordan det skal analyseres og utredes om viktige fremtidstemaer som KI. OECD skriver analyser og lager internasjonale møteplasser med fagfolk og politikere på områder som økonomi, FoU, utdanningskvalitet, fremtidige kompetansebehov og balansen mellom styring og regulering, og insentiver og handlingrom for innovasjon og omstilling. Eller politikk, som alt dette også kalles.

Rammeverk for å beregne gevinster

Det nevnte arbeidsnotatet om fremtidig produktivitetsvekst ved bruk av KI heter "Macroeconomic productivity gains from Artificial Intelligence in G7 economies" og presenterer en interessant analyse på knappe 30 sider. Som tittelen sier så avgrenses analysen til G7-landene, som er USA, UK, Japan, Tyskland, Frankrike, Italia og Canada. Akkurat det er ikke et stort problem fordi de og vi har stort sett de samme utfordringene knyttet til KI. Problemstillingen defineres slik innledningsvis:

"The paper studies the expected macroeconomic productivity gains from Artificial Intelligence (AI) over a 10-year horizon in G7 economies. It builds on our previous work that introduced a micro-to-macro framework by combining existing estimates of micro-level performance gains with evidence on the exposure of activities to AI and likely future adoption rates."

Rammeverket forfaterne bruker til å beregne fremtidige gevinster består av tre trinn som de beskriver som "micro-to-macro framework". Først ser de på kunnskapen vi allerede har om hvor mye mer effektivt bedrifter gjør ulike ting på oppgavenivå når de tar i bruk KI. For det andre løfter de denne innsikten om muligheter for produktivitetsvekst opp på bransjenivå i ulike bransjer og ser på ulike arbeidsprosesser der KI-verktøy tas i bruk og vil bli tatt i bruk. Det gjelder både generelle forretningsprosesser i næringlivet, og bransjespesifikke kjerneprosesser. Og, for det tredje, så predikerer de fremtidig utberedelse av KI basert på utrullingtakten vi allerede ser, og erfaringer fra tidligere teknologispredning.

Det er mange ting som vil kunne påvirke både bransjetall og aggregerte nasjonale tall, både i og utenfor bedriftene, og derfor stor usikkerhet. Men det har rapportens forfattere valgt å løse gjennom å beskrive tre scenarier for lav, middels og høy adopsjon av KI de neste 10 årene. Fordi dette er en analyse nedenfra og opp, basert på dagens bransjer og arbeidsprosesser, så kan vi å gå glipp av noen mer disruptive muligheter, for eksempel ved at det skjer store bransjeglidninger, og at hele bransjer forsvinner. Men dette tilhører det mer spekulative og krever litt andre metoder for å utforske, spekulere i og beskrive.

Tallene og forutsetningene

Hva sier så tallene? OECDs rapport anslår at det mest pessimistiske scenariet gir beskjede 0,2-0,4 prosentpoeng årlig produktivitetsvekst i 10 år. Midtscenariet gir 0,5 til 1 prosentpoeng årlig vekst og det optimistiske scenariet gir 0,8 til 1,3 prosentpoeng årlig vekst de neste 10 årene. Rapporten beskriver det slik:

"Under the most pessimistic scenario (low AI adoption, baseline AI capabilities), annual labour productivity gains range from about 0.2 percentage points in Japan and Italy to approximately 0.4 percentage points in the United Kingdom and the United States over the next decade. In the central scenario (medium adoption speed, expanded capabilities), these predictions range from 0.5 to 1 percentage points while the most optimistic scenario (fast adoption, expanded capabilities) predicts annual labour productivity growth ranging between approximately 0.8 to 1.3 percentage points until 2034. 

The range of productivity gains of individual countries is shaped by both the speed of AI adoption and the technological capabilities of AI systems. Cross-country differences are largely influenced by the sectoral composition of each economy. Countries that have a higher concentration of AI-exposed knowledge intensive services are generally likely to have higher productivity gains."

Nå kan omkring et prosentpoeng vekst i året i det optimistiske scenariet høres lite ut, men rapporten minner om at den økonomiske veksten på 90-tallet, drevet av at bedrifter tok i bruk PCer med internett, ga en årlig ekstra produktivitetsvekst på 1-1,5 prosentpoeng pr år. I løpet av en periode på 10 år er dette veldig mye mer enn null produktivitetsvekst, og også et kjærkomment bidrag til å frigjøre arbeidskraft i økonomier som opplever eldrebølge og knapphet på arbeidskraft i flere sektorer.

Jeg tenker likevel at slike aggregerte summer kan bli litt abstrakte og at selve sluttsummene er mindre viktige å henge seg opp i enn forutsetningene og analysene som ligger til grunn. Det er i disse analysene notatet har sin største styrke, både når det gjelder hvilke bransjer som ligger til rette for å bli mest og minst berørt av KI, og når det gjelder hvordan utberedelsen av KI-anvendelse i dag kan sammenlignes med andre generelle muligggjørende teknologier (general purpose technologies) i historien, som elektrisitet, PCer/intenett og mobiltelefoni.

Mer og mindre KI-modne bransjer

De fleste OECD-land har i dag ganske gode statistikker om KI-utberedelse i næringslivet. Selv om spørsmålene blir stilt litt ulikt i forskjellige undersøkelser, er det mulig å gjøre sammeligninger, også på tvers av G7-landene. Tallene viser at mens privat bruk av generative KI-verktøy som Chat GPT og Copilot er oppe i 30-40 prosent (tall fra USA), er bruken i næringslivet langt lavere. Europeiske tall viser at bare 14 prosent av bedriftene svarer at de bruker KI i en eller flere arbeidsprosesser i virksomheten, mens bare 3 prosent svarer at de bruker KI-verktøy i sine kjerneprosesser:

"A close examination of Eurostat’s survey on AI use among firms reveals that AI adoption in core business functions by businesses is substantially lower than AI use for any business purpose: in 2024, the respective figures are about 3% and 14% in Europe. Private use among, individuals, which is often the focus of public commentaries when discussing the fast spread of latest Generative AI (e.g. large language models) is much higher still, reaching 39% in the United States according to a recent large-scale survey.

Så er det åpenbart slik at ulike bransjer blir påvirket i ulik grad av KI-teknologier. I denne OECD-rapporten har de både sett undersøkelser om hvordan arbeidsprosesser påvirkes av å ta i bruk digitale assistenter basert på de store språkmodellene som allerede er tilgjengelige, men også på oppgaver som krever at det lages nye spesialliserte fagsystemer eller andre digitale verktøy på toppen av de generative KI-språkmodellene. 

Kort oppsummert om produktivitetsvekst på bransjenivå er det de kunnskapsintensive tjenestenæringene, og særlig finans, ikt-tjenester, media og publiseringsvirksomhet og kunnskapsintenvise forretningstjenester (advokater, konsulenter, ingeniørtjenester, revisorer, regnskap mm) som ligger best til rette for de største produktivitetsgevinstene, mens landbruk, gruvedrift og bygg/anlegg vil være minst eksponert, i hvert fall i kjernevirksomheten og på kort sikt:

"Exposure to AI varies across sectors in G7 economies, with knowledge-intensive services being the most affected (...). These services rely strongly on cognitive tasks, such as Finance, ICT services (including software development, data services and telecoms), Publishing and Media, and Professional services. In these sectors, between 50% and 80% of tasks are exposed to AI, depending on whether baseline or expanded AI capabilities are assumed. In contrast, the least exposed sectors include sectors with a strong manual, physical task component, such as Agriculture, Mining and Construction. In these sectors, between about 10% and 30% of tasks are exposed to AI."

Rapporten har sett på undersøkelser av forutsetningene for KI-anvendelse i 40-50 ulike bransjer. Den slår fast at det også er forskjeller mellom land når det gjelder modenhet generelt og innenfor ullike næringer, særlig mellom for eksempel USA og UK på den ene siden og Japan og Italia på den andre siden, man at de viktigste forskjellene ikke er mellom land, men mellom bransjer. Og fordi næringsstrukturen er ulike ved at Japan og Italia har en større andel industriproduksjon, mens USA er størst på kunnskapsintensive tjenester, så vil effektene av bruk av KI være størst i de sistnevnte på grunn av næringsstukturen, i hvert fall på kort sikt.

Muliggjørende teknlologier

Et annet interessant tema i denne rapporten er en sammeligning mellom dagens utberedelse av KI i nærlingslivet, som en generell muliggjørende teknologi som virker på tvers av bransjer og sektorer, sammenlignet med andre muliggjørende teknologier tidligere i historien. Rapporten ser konkret på elektrisitet, PC/internett og mobiltelefoni, og setter noen tall på hvor raskt adopsjonen av disses teknologiene skjedde i næringslivet i løpet av 10 år. Grafen under er hentet fra rapporten og viser at mens elektrisitet hadde blitt tatt i bruk av 23 prosent av virksomhetene på 10 år, så var bruken av PCer og internett på omkring 40 prosent og mobiltelefoni på hele 60 prosent.

Rapporten slår fast at de tre scenariene for lav, middels eller høy utberedelse av KI godt kan sammenlignes med hver at de tre historiske eksemplene. Og at forutsetningene for en rask utberedelse av KI er ganske gode:

"Based on historical evidence of the adoption of these previous GPTs, this analysis outlines three AI adoption scenarios at low, medium, and fast pace that align with the respective adoption paths of electricity, computers and the internet, and a more recent digital technology, mobile phones.

 The fast-evolving patterns of recent increases in AI adoption and declines in the cost of accessing AI are suggestive of a faster adoption trajectory. For instance, AI adoption increased by about 50% from one year to the next both among EU countries and in the United States in official data, from initial rates of around 3- 5%. Such an initial steep rise is most consistent with the S-shaped adoption pattern which was obtained for more recent digital technologies (mobile phones). Assuming the continuation along such S-shape paths lead to an adoption rate of about 60% in 10 years. In addition, new evidence shows that the quality-adjusted cost of AI models is declining exponentially (about 80% over the past two years; Andre et al, 2025), mirroring past trends observed in computational costs and computer memory (Figure 7). Coupled with Generative AI’s user-friendly nature, which is mostly based on human language interaction, its improving cost-effectiveness lends further support for a more dynamic future adoption path. 

On the other hand, a deeper integration into core business functions may still require significant complementary investments in terms of data, skills and a reorganisation and rethinking of business processes (Brynjolfsson, Rock, Syverson, 2021)."

Dette siste poenget er naturligvis viktig. Selv om det å ta i bruk KI i stor grad kan gjøres med eksisterende internettilkoblet utstyr (PCer, smarttelefoner osv) virksomheten allerede har, og ikke krever ny hardware, så er det ikke nødvendigvis enkelt eller billig å fange, forvalte og dele data, skaffe og utvikle ny nødvendig kompetanse eller reorganisere virksomhetsprosessene sine.

 Eksponentiell vekst og digital forestillingsevne

Å spå om fremtiden er aldri lett, men det er særlig vanskelig når det gjelder utberedelsen av generelle muliggjørende teknologier. Det var ikke lett å forestille seg hva vil ville bruke internett til før PCene ble koblet til internett og noen utviklet programvaren og tjenestene som skapte verdi. Eller at telefoner ikke først og fremst er noe vi bruker til å ha lange telefonsamtaler, men brukes til en rekke andre ting, for eksempel til å betale for varer i butikken eller til Snapchat og TikTok.

Det er en underliggende eksponentiell hastighet i teknologiutviklingen som gjør det ekstra vanskelig å spå om den digitale fremtiden. Intels PC-prosessorer og NVIDIAs KI-prosessorer dobler ytelsen annenhvert år, i tråd med Moores lov, og kanskje enda raskere. Noen snakker om "Huangs lov", som er inspirert av Jensen Huangs erkæringer om at KI-forbedringene går enda raskere enn den fordoblingen som Moores lov har observert: 

"In recent years, Moore’s Law has slowed down. However, Huang claims that Nvidia’s AI chips are moving at an accelerated pace of their own; the company says its latest data center superchip is more than 30x faster for running AI inference workloads than its previous generation.

“We can build the architecture, the chip, the system, the libraries, and the algorithms all at the same time,” said Huang. “If you do that, then you can move faster than Moore’s Law, because you can innovate across the entire stack.”"

Har vi forestillingsevnen og innovasjonsevnen som kreves for å forstå hva dette vil innebærer av nye produkter, tjenester, prosesser og forretningsmodeller? Det er jo lettere å forestille seg at vi skal fortsette å gjøre det vi gjør i dag, men med tjenester som går litt raskere, med litt utvidet funksjonalitet og kanskje litt mer brukervennlig. Men ser vi oss tilbake 30 år, til en tid der stillingsannonser og boligannonser var i aviser på papir, penger fantes i noe som het bankfillialer og leksikon ble solgt på på gaten på Karl Johan, så har det skjedd en del. Noen klarte å forestille seg at ting kunne gjøres annerledes ved hjelp av teknologi, og evnet å utnytte dette mulighetesrommet.

OECD-rapporter som denne har ikke de presiste svarene på hvordan fremtidenss tjenester og anvendelsesområder av KI vil se ut. De er beskriver noen endringsdrivere, noen forutsetninger eller manglende foutsetningenr særlig mynghetene bør være oppmerksomme på, og et handlingsrom som oppstår. Store verdier kan skapes hvis vi utnytter mulighetene, men disse mulgihetene er det først og fremst bedriftene selv som må finne.

(Og her er det også på sin plass å takke Terje Erikstad i Dagens Næringsliv for å gjøre meg oppmerksom på OECD-rapporten. Han har skrevet en kommentar om rapporten i dag i DN).

lørdag 19. juli 2025

Lang musikk til lange feriedager (77)

Med uvanlig varme sommerdager gjennom slutten av uken og helgen i stort sett hele Norge, er det på tide med et nytt  bidrag i denne spalten med lang musikk til lange dager på stranden. Uansett hvor den stranden er, så inviterer den sannsynligvis til å koble ut ved å lese en bok, gjerne digital, og lytte til digital musikk.

Jeg har egentlig tenkt ganske lenge at jeg burde ta et lite dypdykk i The Specials. Et engelsk band som ble til i Coventry i 1977, samtidig og på mange måter også en del av punk-bevegelsen (de turnerte tidlig sammen med The Clash). Men The Specials var i  enda større grad frontfigurene for en britisk two-tone/ska-revival bølge som preget hitlistene. 

Frontfigur Jerry Dammers etablerte og et plateselsakp som het 2-tone records der også The Beat, The Selecter og Madness var andre stjerner på 2-tone. Og det handlet ikke bare om musikk, men en gjennomført pakke med dresser, pork pie-hatter og til tider også hviter skjorter og slips. Opprinnelig en gatekultur på Jamaica på 60-tallet, men innvandring derfra til Storbritannia la grunnlaget for en britisk variant av "Rude Boy"-kulturen på slutten av 70-talet.

The Specials holdt på mellom 1977 og 2022, men det var flere pauser, og man kan dele disse årene opp i tre eller kanskje fire ganske distinkte perioder, der samlingen "Stereo-typical - A's, B's and Rarities" tar for seg de to første av disse. Det finnes flere andre samleplater med The Specials, men denne er lett tilgjengelig på Spotify og er en passe blanding av de viktigiste hitlåtene, noen glemte perler, noen alternative versjoner og live-versjoner, og noen rariteter. I alt 46 låter og litt over tre timers spilletid. I sin fysiske versjon er låtene fordelt på tre CDer.

Første CD dekker første fase, glansdagene mellom 1977 og 1981 da The Specials hadde syv singler på rad på topp 10 på hitlisten i UK. Her er  de alle: "Gangsters", "A Message to You Rudy", "Rat Race", "Stereotype", "Do Nothing", "Too Much, Too Young og "Ghost Town". De to siste var listetopper, men da "Ghost Town" ble en braksuksess 1981, perfekt timet til opptøyer i London, Bristol, Liverpool og Manchester, var bandet bllitt så internt uenige at tre medlemmer erkærte at de meldte seg ut på direkten på BBCs Top of the Pops brøt ut og startet The Fun Boy Three.

Andre epoke kom da hovedlåtskriver Jerry Dammers døpte om bandet til Special A.K.A. og holdt det gående til omkring 1984 med noen som ble igjen og noen nye, ikke minst Rhoda Dakar og Stan Campbell på vokal. De skulle bli enda mer politiske enn tidligere. Noen like stor suksess ble det ikke, men "Free Nelson Mandela" ble en global hit i 1984 og gjorde The Specials kjent langt utover gamle fans.  Det meste av CD2 er ulike varianter av sanger fra disse årene.

Men Jerry Dammers ble lei av at politiske låter ikke fikk den mobiliserende effekten han ønsket og ble politisk aktivist i stedet. Special A.K.A. ble oppløst i 1984. Så kom det riktignok noen gjenforeninger uten Jerry Dammers, først på slutten av 90-tallet og så en runde fra 2008 til 2022 da alle de opprinnelige medlemmen unntatt Dammers var med helt eller delvis, og som til og med resulterte i et nytt studioalbum med originale sanger, "Encore" i 2008.

"Stereo-typical -A's, B's and Rarities" har ikke tatt med denne senere perioden. Samlingen kom ut i 2000, så 2000-tallet kunne den naturlig nok ikke ha med uansett, men heller ikke materiale fra et album og et cover-album på 90-tallet er tatt med. Det tenker jeg er helt i orden. Slutten av CD2 og hele CD3 er i stedet fult opp av remikser, live-versjoner og instrumentaler. Ikke alt i denne delen er like viktig eller like bra, men også er er det ting som bidrar til å gjøre dette til en utmerket samling musikk fra et viktig band som har inspirert og vist vei for mange andre.

-------

Og her er lenke til alle tidligere og alle fremtidige bidrag (etter hvert som de kommer) i spalten Lang musikk til lange feriedager.

søndag 13. juli 2025

Lang musikk til lange feriedager (76)

Kan et enkelt album være et godt utgangspunkt for større box-set på for eksmpel 60 sanger? Jeg tror det kommer an på hvilken artist det er snakk om og hva slags kreativt sinnelag vedkommende artist har vært i og om det har vært et overskudd av både energi og faktiske innspillinger. Og om kvaliteten på de sangene som var på albumet i utgangspunktet var bra, men risikerer jo å høre noen av sangene i 4-5 ulike versjoner på en slik samling.

Jeg har tidligere skrevet om Bruce Springsteens "The Ties That Bind - The River Collection" med 52 låter knyttet ti innspillingen av The River, som er fantastisk bra. I går skrev jeg om Bob Dylans "Fragments" som er tilnyttet innspillingen av "Time Out of Mind". Her er det 60 sanger, men mindre antall låter totalt og derfor flere gjentagelser. Men likevel en bra samling.

Dagens dypdykk på en lang dag på badestranden, som kan nytes både i Norge og lenger sør for tiden, er David Bowies ekstra låter, alternative innspillinger og liveversjoner fra Hunky Dory, Bowies gjennombruddsalbum som kom ut i slutte av 1971. Denne samlingen heter "Divine Symmetry" og kom ut i 2022. Navnet er hentet fra sangteksten til sangen "Quicksand".

For en god del år siden skrev jeg her på bloggen, i denne spalten, at David Bowie åpenbart ikke hadde et overskuddsmateriele av uutgitte ting i arkivet, for han kom bare med helt ordinære og kjedelige samlealbum, og ikke noe som lignet på det Dylan og Springsteen har gitt ut av store samlinger av rariteter, andre versjoner og uutgitte ting. Akkurat det stemmer ikke lenger, for det har kommet noen enorme Bowie samlinger med musikk fra hans ulike og veldig varierte "tidsepoker". Først ute var Five Years (1969-73) som kom i 2015 med hele 135 sanger, og siden har det kommet flere slike monstersamlinger, som sikkert fortjener plass i denne spalten om en stund.

Men i dag handler det om "Divine Symmetry" som har 72 sanger, fordelt på 4 CDer på den fysiske utgaven. Sangene dokumenterer David Bowies musikalske modning da han jobbet med albumet "Hunky Dory". Fra tidlige og uferdige versjoner, via John Peel-innspillinger på BBC, til live-versjoner og studio-versjoner av sangene som er med på albumet. Denne kronologien gjør at det går fra å være sjarmerende, men litt famlende og uferdig i begynnelsen, til å være sangene omtrent slik vi kjenner fra albumet, pluss en del sanger han spilte på den tiden, men som ikke kom med.

Hunky Dory var i sin tid et forbausende variert og energisk pop-album, som eksperimenterte med ulike uttrykk. Sanger som "Changes", "Oh! You Pretty Things", "Kooks", "Quicksand", "Song for Bob Dylan" og "Life on Mars" er klassikere, ikke bare hos Bowie, men i pop-historien. På første CD får vi tidlige demo-utgaver og kasserte versjoner av noen av disse og en hel del andre sanger. CD 2 er innspillinger hos den legendariske programlederen John Peel i BBC, inkludert små introduksjoner mellom sangene. Det er dobbelt sett, en i mono og en i stereo

Så tar det seg videre opp på CD3 som åpner med an annen BBC innspilling av 7 sanger, hos Bob Harris og deretter et konsertopptak med 14 sanger fra høsten 1971 der også Bowies tidligere hitlåt "Space Oddity" og Velvet Undergrounds "Waiting For The Man" er med. Og så er CD4 promoversjoner, remiksede versjoner, singelversjoner og slikt som ligger helt tett opptid det som kom ut på albumet, samt noen sanger som ikke kom med på albumet. Det inkluderer Jaques Brels "Amsterdam", "Bombers", "Looking for a Friend" og "Tired of My Life". Denne siste skiftet senere navn til "It's No Game" og kom ut på albumet "Scary Monsters" flere år senere.

-------

Og her er lenke til alle tidligere og alle fremtidige bidrag (etter hvert som de kommer) i spalten Lang musikk til lange feriedager.

lørdag 12. juli 2025

Lang musikk til lange feriedager (75)

Det er sjelden det er en sommer uten at Bob Dylan dukker opp i denne musikkspalten med lang musikk til lange feriedager. Og hovedgrunnen til det er naturligvis at han er et oppkomme av box-sets, samlinger med musikk fra arkivene som ikke er gitt ut før; enten i form av sanger vi ikke har hørt før, andre versjoner av sanger vi har hørt før, eller nye remikser at ting som er utgitt, men der noen lag av grums og støv er tatt bort.

"The Bootleg Series, Vol. 17: Fragments - Time Out of Mind Sessions 1996-1997" som kom i 2023 er alt dette på en gang. Mens andre etablerte artister kanskje har materiale til en slik stor samling med uutgitte perler og rariteter i løpet av karrieren, har Bob Dylan fått til en samlebåndsproduksjoin  av godt sammensatte pakker av uutgitte perler, med The Bootleg Series. "Fragments" er nummer 17 i bootleg-serien som har kommet jevnlig siden 1991, mens "Biograph", som nærmest fant opp denne box-set sjangeren kom så tidlig som 1985.

"Fragments" er, som undertittelen "Time Out of Mind Sessions 1996-1997" antyder konsentrert, om en bestemt plateinnspilling, nemlig "Time Out of Mind" som kom i 1997, etter omkring 7 år der han ikke hadde gitt ut originale låter. Så dette ble hyllet som et slags comeback for Bob Dylan og albumet ble rost av både kritikere og av platekjøperne. 

Selv var ikke Bob Dylan like fornøyd. Han og superproducer Daniel Lanois var i følge historen ikke alltid på linje når det gjaldt hvordan det skulle låte. Dylan kunne skifte menig og skrive om tekster og arrangementer underveis, mens Lanois ville sette sitt tydelige stempel på lydbildet. De hadde også hvert sitt sett med musikere med, så det ble dobbelt opp, mye veldig flinke folk på lite plass, og vanskelig å vite hva som gjaldt. Og alle var egentlig enige om at noen veldig bra sanger som var spilt inn, og som ble utelatt, egentlig burde kommet med på albumet.

Derfor er p0enget med "Fragments" todelt, tror jeg. Den ene er å presentere remiksede versjoner av sangene på albumet, som er mer i tråd med det Bob Dylan hadde ønsket. Den første CDen presenterer denne remiksede versjonen av alle sangene på det originale albumet, blant annet "Love Sick", "Tryin' to Get to Heaven", "Not Dark Yet" og "Can't Wait". I presentasjonen av samlingen heter det at de skal låte som det hørtes ut i studio da de ble spilt inn. Et lite spark til Lanois der.

Hele samlingen er på i alt 60 sanger, i fysisk utgave er de delt inn i 5 CDer, og samme utgivelse er også på Spotify, som jo er mer praktisk på badestranden. Mens den første CDen er den nevnte remiksede originalen, består de andre fire CDebe av andre versjoner av de samme sangene og av utelatte sanger, mens en av CDene består av Live-versjoner fra ulike konserter. Flere sanger finnes i ganske mange ulike versjoner, og det er interessant hvordan sanger som "Not Dark Yet" og "Mississippi" hørest helt forskjellige ut her, neste som det ikke er samme sang. Ikke rart det ble en krevende innspilling.

"Mississippi" er en av disse sangene som ikke kom med, men ble utsatt til et senere album noen år senere. Andre gode sanger som ikke kom med på albumet, men finnes her, er "Red River Shore", "The Water is Wide" og "Dreamin' of You". Man kan innvende at en helt samleboks med 60 sanger fra bare et album er litt smalt og at Bob Dylan tidligere har dekket denne perioden "Fragments" inngår i langt bredere på den utmerkede samlingen "The Bootleg Series, Vol. 8: Tell Tale Signs - Rare and Unreleased 1989-2006", fra 2008, som jeg har skrevet om på bloggen her.

Så, ja, "Fragments" er særere, med flere versjoner av samme sanger, og er kanskje mer for Dylan-nerder. Men det er bra musikk og egner seg godt for et lite dypdykk i en tid der Dylan var i en kreativ, men ganske mørk sinnstemning. Og når det gjelder dette med enkeltalbum er det grunn til å minne om at Bruce Springsteen har laget gode samlinger rundt enkeltalbumene, "The River" og "Darkness on the Edge of Town". Det finnes også en David Bowie-samling med materiale fra før og under innspillingen av "Hunky Dory". Den kommer jeg tilbake til her på bloggen ganske straks.

-------

Og her er lenke til alle tidligere og alle fremtidige bidrag (etter hvert som de kommer) i spalten Lang musikk til lange feriedager.

onsdag 9. juli 2025

Lang reise mot ny arkivlov

Prop. 52 L
Stortinget vedtok rett før feiren en ny Lov om dokumentasjon og arkiv, bedre kjent som Arkivloven. Den nye loven erstatter arkivloven fra 1992, en lov som ble vedtatt før internett var i alminnelig bruk, og før digitale arbeidsprosesser preget forvaltningen. 

Den forrige lovens formålsparagraf var mest opptatt av å trygge arkiver som har stor kulturell eller forskningsmessig verdi. I den nye loven handler formålet minst like mye om å ha en forsvarlig og etterrettlig offentlig forvaltning som dokumenterer det den gjør, slik at man kan føre kontroll, styrke rettsikkerheten og føre en opplyst og åpen offentlig samtale. Viktige prinsipper i en liberal og demokratisk rettsstat.

Digital forvaltning

Kulturdepartementet oppsummerer hovedbegrunnelsen for en ny lov slik innledningsvis i lovproposisjonen:

"Gjeldande rett blir for det meste vidareført i den nye lova, men lovføresegnene er utforma for å høve betre til moderne arbeidsmåtar i den offentlege forvaltninga. Terminologien er endra for å spegle at forvaltninga no arbeider digitalt. Det hevdvunne omgrepet «arkiv» blir ført vidare, men med eit litt anna innhald. Dokumentomgrepet blir avløyst av dokumentasjon.

Mens det før var viktig å beskrive hva man skulle gjøre for å ta vare på dokumentene og brevene, er poenget nå å ha en bredere og mer teknologinøytral tilnærming til hva som skal tas vare på. Vi vet jo heller ikke hva som kommer i neste runde. Men til tross for temmelig store endringer i både arbeidsprosesser  og hva slags verktøy og teknologier som blir brukt, og hvordan politikere og forvaltning kommuniserer med omgivelsene, har den nye loven en ganske forsiktig tilnærming til å regulere dette mer presist. 

Hva slags arbeidsprosesser som gjelder, og hva slags dokumentasjon som skal skapes, reguleres av andre forhold enn arkivloven. Arkivloven fastsetter hva som skal gjøres med dokumentasjonen i etterkant. Loven er dessuten på et overordnet nivå, og fastsetter prinsipper og rammer, mens mer funksjonelle og detaljerte regler fastsettes i forskrift. Lovens nedslagsfelt utvides noe ved å også gjelde private leverandører av lovpålagte tjenester. Og Arkivverket endrer navn til Nasjonalarkivet.

En kronglete vei til ny lov

Men denne forsiktige tilnærmingen til hva som som skal stå i loven betyr ikke at prosessen for å komme dit har vært rask. Det har vært flere ulike forslag og flere høringer enn vanlig, og det har tatt lang tid. Dessuten er det nok slik at noen av problemstillingene der det har vært tvil om hva man egentlig vil, og hvordan det best reguleres i et lovverk, ikke egentlig er løst i den nye loven, men skal fastsettes i forskrifter senere.

Erkjennelsen av at vi trenger et lovverk som er i bedre kontakt med den digitale virkeligheten i offentlig forvalning har imidlertid vært der en stund, og i september 2017 oppnente regjeringen et ambisiøst Arkivlovutvalg som kom med sin NOU "Fra kalveskinn til datasjø", med et forslag til ny lov i april 2019. Den var jeg faktisk med på å ta imot sammen med Venstres kulturminister Trine Skei Grande. Forslaget ble umiddelbart sendt på høring.

Så ble det temmelig stille temmelig lenge, helt til Kulturdepartementet, nå ledet av Venstres Abid Raja, sendte et helt annet lovforslag på høring i oktober 2021, et lovforslag som var svært forskjellig fra Arkivlovutvalgets ambisjon om å bruke loven til å beskrive og regulere sakshandlingsprosesser og kommunikasjon i en digital kontekst og beskrive innebygget og automatisert arkivering. Men heller ikke nå var departementet klare til å skrive en lovproposisjon til Stortinget. Det tok ytterligere tre og et halvt år, og den kom til Stortinget først i slutten av april 2025, åtte år etter at Arkivlovutvalget ble utnevnt.

Kulturdepartementets proposisjon ligger fortsatt et godt stykke unna Arkivlovutvalgets forsøk på å finne en regulatorisk ramme for dagens og fremtidens digitale arbeidsprosesser, og tett på departementets eget forslag i 2021. Man kan si at regjeringen og Stortinget forkastet lovforslaget Trine Skei Grande tok imot og støttet Abid Rajas forsiktige linje. Men en liten kuriositet her er at da lovforslaget ble behandlet i Stortinget nylig så skrev Venstre kritiske merknader og stemte, som eneste parti, for å sende hele loven tilbake til regjeringen, nettopp fordi den ikke har fulgt opp Arkivlovutvalget.

Om å føre arkiver ut av landet

Jeg tenker det er bra at vi endelig har fått en ny arkivlov på plass, selv om den skyver noen problemstillinger over til et forskriftsarbeid. Et slikt problem gjelder hvor man kan oppbevare digitale arkiver på en lovlig måte. Må arkiver være i Norge, eller holder det med en kopi i Norge? Kan originalen være i et EU-land eller i UK eller i USA? Og hva om dokumentasjonsen er produsert i et saksbehandlingssystem i en skyløsning utenfor Norge og skal føres inn i Norge? Trenger vi regler for innførsel av dokumentasjon til arkiv i Norge når den er blitt til utenfor Norge?

I følge den gamle arkivloven fra 1992 kan ikke arkiver føres ut av landet. Loven slo fast at:

"Utan i samsvar med føresegner (...) eller etter særskilt samtykke frå Riksarkivaren, kan ikkje arkivmateriale førast ut or landet, dersom dette ikkje representerer ein naudsynt del av den forvaltningsmessige eller rettslege bruken av dokumenta."

For fysiske arkiver med materiale av historisk og kulturell verdi er dette fornuftig. Men hva med digitale arkiver som det kan lages flere eksemplarer av, eller som speiles mellom flere servere? Noe av poenget med å bruke skybaserte saksbehandlingssystemet er jo nettopp at det er sikrere å kunne lagre data ved flere lokasjoner, og også på tvers av landegrenser. I Norge er offentlige etater pålagt å vurdere og også anbefalt å bruke skyløsninger for å øke sikkerheten for å være mer fleksible og effektive. Det står i digitaliseringstundskrivet fra DFD. Da er det rart å ha en Arkivlov som i praksis hindrer slike løsninger.

Når tror jeg strengt tatt ikke alle har tatt Arkivlovens eksplisitte forbud mot utførsel helt bokstavelig, og tenkt at digitale systemer har egenskaper som gjør at de umulig kan underlegges den type regler. Noen har nok også tenkt at EØS-avtalen neppe tillate denne type digital proteksjonisme, i hvertfall hvis det ikke er begrunnet i helt andre hensyn, som for eksmpel sikkerhetsloven, GDPR eller andre sikkerhets- eller sektorkrav. Hele poenget med EU er jo at man ikke skal ha slike nasjonale hindringer.

Fortsatt forvirring om data i utlandet

Men, man kan trygt si at reisen for å utrede og egentlig ikke oppklare denne floken har tatt enda lenger tid enn å lage ny lov, og for de som er spesielt interessert er kapittel 9 i lovproposisjonen om "Utførsle og lagring av arkiv utanfor Noreg" (side 79-87)  litt komisk lesing, i all sin tviling og nøling. Først slås det fast at dagens lov må forstås slik at det er forbudt å føre digitale arkiver ut av Norge:

"Føresegna i arkivlova § 9 bokstav b vart gitt då arkiv i hovudsak handla om analoge medium, men gjeld i takt med utviklinga i informasjonsforvaltninga òg for digitale arkiv. At lagring av digitale arkiv på sørvarar i utlandet er omfatta av forbodet i arkivlova § 9 bokstav b, har reist spørsmål som framleis er uløyste. Riksarkivaren har ikkje innvilga søknader om utførsle av digitale arkiv. Dette skuldast at det er uklart kva for kriterium som skal liggje til grunn for vurderinga, og at det handlar om spørsmål av prinsipiell karakter som Arkivverket meiner bør regulerast i lov eller forskrift."

Allerede i 2017 ble det sendt en endret arkivforskrift på høring fra Kulturdepartementet som åpnet for større frihet til å lagre digitale arkiver i utlandet, i erkjennelse av at der er litt rart å anbefale offentlige etater å bruke skyløsninger, men ha et lovverk som begrenser mulighetene til å gjøre det. Men dette ble aldri gjennomført. Man ville vente på ny arkivlov. Så kom arkivlovutvalget, og ingenting skjedde. Så kom lovforslaget fra KUD i 2021, og ingenting skjedde. Og nå når det er vedtatt en ny lov så har det strengt tatt heller ikke skjedd noe konkret på dette området. 

Gapet mellom regelverk og virkelighet

Lovproposisjonen erkjenner også at man ikke gjør noe for å avklare dette, men den ramser i stedet opp en rekke ytterligere forhold departementet synes er vanskelige. De vil ha en forskrift, men vet ikke hva det skal stå i den og heller ikke når den kommer (og her beklager jeg et litt langt sitat, men denne departmensnølingen er så sterk at det hele må med):

"Departementet vurderer at eit forbod mot utførsle av digitale arkiv ikkje bør setjast i lova. Departementet viser til at ei rekkje spørsmål er i endring, mellom anna implementeringa av sikkerhetsloven og lov om digital sikkerhet, FFD-forordninga og nasjonal sikker sky. Det kan 
derfor vere tenleg med ein heimel til å gi ei forskrift med ei særskilt regulering av spørsmålet om lagring av digitale arkiv utanfor Noreg. Forskrifta kan opphevast den dagen det ikkje lenger er behov for henne. 

 Forskriftsheimelen kan nyttast til å stille krav som gjeld alle digitale arkiv omfatta av arkivlova. Til dømes kan forskrifta nyttast til å gjere det heilt forbode å lagre digitale arkiv i utlandet eller forbode å lagre dei utanfor EØS-området. Slike avgrensingar må ikkje stride med anna regelverk og må vurderast opp mot behova for slikt regelverk til ein kvar tid. Dei einskilde departementa kan òg for sine sektorområde stille nærare vilkår om lagringsstad for digitale arkiv i sektorregelverket. Arkivlova og forskrifta bør vere eit generelt, sektorovergripande regelverk. 

Videre kan forskrifta stille krav om at ein kopi blir lagra i Noreg som ei ekstra sikring mot tap, ved til dømes brot på infrastruktur eller andre omstende som fører til tapt tilgang eller tapt råderett. Oppfyller ein i slike høve andre regelverk om tryggleik og personvern, kan ei lagring av kopi i Noreg opne for skylagring i utlandet, i tråd med slik gjeldande regelverk òg har vorte tolka. 

Departementet legg til grunn at det inntil vidare vil vere behov for å vidareføre i forskrift den gjeldande forståinga av utførsleforbodet for digitale arkiv, slik at kopiar av dokumentasjon i digitale arkiv berre kan lagrast på sørvarar i utlandet, så lenge det komplette arkivet òg er tilgjengeleg på ein sørvar i Noreg. Departementet legg til grunn at ei slik forskrift vil kunne bli fjerna på sikt."

Allerede for 10 år siden var det en klar erkjennelse av at det er et stort og økende gap mellom den praktiske bruken av digitale fagsystemene som finnes i forvaltningen, som befinner seg i nettsky, og arkivregelverket som regulerer hva som er lov. Det kunne vært løst ved å endre arkivforskriften i 2017, og eventuelt justere videre senere, i tråd med nye erfaringer og nye teknologiske muligheter. I stedet skal vi fortsette lure på hva vi skal gjøre. Kanskje er problemet rett og slett så enkelt som at ansvaret for arkivlovverket ligger på feil sted og burde være plassert der hvor forvaltningspolitikk og digitaliseringspolitikk ellers blir utviklet og styrt. Slik at vi kunne sett det i sammenheng.

tirsdag 8. juli 2025

John Elkington: Green Swans

I boken "Green Swans" av John Elkington blir vi introdusert for begreper som "grønne svaner" og "stygge andunger". Vi får en forklaring på hvor det ble av den "triple bunnlinjen. Og vi får en innføring i å koble strategier for det grønne skiftet med innovasjonstenking og omstillingsmodeller som har preget store og distruptive endringer på andre områder. 

Elkington har flere helter, men de har særlig etterlyser nøyer seg ikke med å bare være mot noe, de må også vite hva de ønsker og de bygger  forutsetningene og strategiene som gjør det mulig å kommer dit. Og du må forstå at det er næringslivet som er motoren i en grønn kapitalistisk transformasjon, men staten må lage gode rammebetingelser for omstilling, og ikke gå i veien. 

Sånn sett er "Green Swans" beslektet med helt ferske teknologi- og utviklingsoptimistiske bøker fra folk som tihører sentrum-venstre i USA som "Abundance" av de profilerte journalistene Ezra Klein og Derek Thomson, og "Why Nothing Works - Who Killed Progress―and How to Bring It Back" av Marc J. Dunkelman. De tar til orde for at alternativet til Trumps "Drill, baby, drill", må være "Build, baby, build". De bøkene har jeg ambisjoner om å komme tilbake til her på bloggensenere i sommer. 

Trippel bunnlinje

Jeg møtte John Elkington og noen av hans folk i miljøkonsulentselskapet SustainAbiltity da jeg jobbet i det daværende Statoil omkring 1999. Vi skulle lage årsrapport som reflekterte at vi var opptatt av en "trippel bunnlinje", det vil si økonomiske resultater, HMS-resultater og samfunnsmessig og sosialt fotavtrykk. Han var en stor størrelse i miløjbevegelsen, hadde tidligere skrevet bøker som "The Green Consumer Guide" men var etter hvert blitt ekspert på miljø og bærekraft i næringslivet. Kjent for å snakke med bedrifter og ikke bare om bedrifter, slik mange andre ekperter gjør, og hadde metoder og verktøy som kunne brukes i praksis, ikke bare til å rapportere, men også til å jobbe med forbedringer.

Elkingtons utgangspunkt var og er at omstillingen til mer grønne og bærekraftige forretningsmodeller skal skje innenfor rammen av en "grønn kapitalisme", og at næringslivet er en del av løsningen. Han tar æren for å ha funnet opp konseptet "Tripple bottom line" i 1994 og begrepet "People, planet, profits", et rammeverk som er blitt videreutviklet til ESG-rapporting og etter hvert en obligatorisk bærekraftsrapportering i EU som en del av regnskapspliktene, i hvert fall for de største bedriftene.

I denne boken skriver John Elkington også om at han ble desilusjonert underveis med både tempoet og dybden i omstillingen, og reagert på at den grønne omstillingen i mange virksomheter får mer karakter av prosjekter på siden av den egentlige virksomheten, en form for grønn veldedighet,  i stedet for en egentlig innovasjonsdrevet grønn transformasjon. I 2018 skrev han en artikkel i Harvard Business Review der han "tilbakekalte" den triple bunnlinjen" i artikklen "25 Years Ago I Coined the Phrase “Triple Bottom Line.” Here’s Why It’s Time to Rethink It". 

Grønne svaner

Det er dette behovet for redesign av systemene som skal gi oss den grønne transformasjonen som er tema i boken "Green Swans", med undertittelen "The Coming Boom in Regenerative Capitalism". Den beskriver behovet for et samspill mellom politiske og regulatoriske myndigheter, som må legge til rette for omstillingen, både endringer i den generelle næringspolitikken og gjennom store og dristige prosjekter, og den beskriver hvordan hovedrolleinnehaverne likevel må være markedsaktørene selv; bedrifter, finansinstitusjoner, bransjeaktører, leverandører og kunder.

Boken kom ut i 2020 og det kan være noe av forklaringen på at den er temmelig positiv i tonen når det gjelder utviktene til store grønne investeringer støttet av nasjonalstater. Dette var på den tiden Inflation Reduction Act (IRA) kom i USA og en tid er investeringer i selskaper som skulle satse på batterifabrikker, grønn hydrogen og offshore vind var høyere enn de to siste årene. Jeg tror likevel Elkington mener det samme nå om både behovet for og mulighetene for nye forretningsmodeller, teknologiens evne til å skape eksponentielle vekstmuligheter.

Boken er tar utgangspunkt i sorte svaner, disse uventede og destabiliserende negative hendelsene som treffer oss og gjør stor skade på kryss og tvers i samfunnet, som en finanskrise eller en pandemi. Han beksriver også "grå svaner", noe som han beskriver som hendelser vi egentlig bør kunne forutse, fordi dataene og informasjonen er der, men vi evner ikke alltid å reagere i tide. Og så har vi "grønne svaner", uventede positive muligheter, eller kombinasjoner av flere ting som skaper et nytt handlingsrom. Han definerer den som:

"A Green Swan is a profound market shift, generally catalyzed by som combination of Blask or Gray Swan challenges and changing paradigmes, values mid-sets, politics, policies, technologies, business models, and other key factors. A Green Swan delivers exponential progress in the form of economic, social and environmental wealth creation. At worst, it achieves this in two dimensions while holdning the third steady. There may be a period of adjustment, where one or more dimentions underperform, but the aim is an intergrated breakthrough in all three dimentions."

Stygge andunger 

John Elkington er som sagt innovativ når det gjelder begreper, og et annet begrep han lanserer i boken er "ugly ducklings", eller stygge andunger", om er merkelige og uventede fenomener vi ser, men vi ikke helt skjønner hva vil føre til. 

"An Ugly Duckling is an early-stage concept, mind-set, technology, or venture, with the potential to become either a Black Swan (often driven by "bad exponentials) or a Green Swan (driven by "good" exponentials). It's potential future evolution is very hard to detect early on, unless you know what you are looking for. Tomorrows breakthrough solutions often look seriously weird today."

Jeg synes det er på dette litt abstrakte og prinsippielle, men og litt lekne nivået, boken er best, og tilfører temaer det er verdt å utvikle videre. Hva er det for eksempel som må være i verktøykassen vår for å kunne oppdage både sorte og grønne svaner på et tidligere tidspunkt, og vite hvordan man skal hådtre dem? De delene av boken som handler om dette er gode, men dessverre er det for mye plass som blir brukt på Elkingtons beskrivelser av seg selv og sine møter og samtaler, og mer generelle råd og teorier, det har vært skrevet om mange ganger før. 

Rammeverk for innovasjon og transformasjon

Noe av det Elkington gjør godt, og han kunne latt boken være enda mer preget av, er å beskrive metoder og rammeverk for disruptive innovasjoner og store tranformassjoner som er kjennetegnet av at en dominerende måte å gjøre ting på blir byttet ut med noe annet. Her trekker han inn Thomas Kuhn og hans bok "The Structure of Scientific Revolutions" fra 1962 som argumentere for at utviklingen av vitenskapene ikke er preget av en lineær utvikling, men av "paradigneskifter" der det etter vitenskapelige revolusjoner bygges nye felles virkelighetsoppfatninger, eller paradigmer.

Hvordan jobber man med fremtiden og med strategier, veikart, bygging av felles virkelighetsoppfatning og ledelse i en virksomhet er erkjenner at den må endre seg helt grunnleggende? Hvordan ser verktøykassen ut når man skal transformere fra et dominerende, men ikke-oppretholdbart paradigme, og til et fremvoksende og langsiktig bærekraftig system? Hva er verktøykassen man kan bruke til denne type arbeid?

Her er det interessant å se at beskrivelser av metoder og verktøy har mye felles med det en tjenestedesign- og systemdesignvirksomhet bruker i sitt arbeid sammen med kunder når man skal forholde seg til en usikker fremtid. Elkington trekker særlig frem Three Horizons-rammeverket som gir muligheter for å spekulere og dypdykke i tre dimensjoner: For det første det som går nedover fordi det ikke er opprettholdbart på lengre sikt og må erstattes med noen annet. Er den noe der vi ønsker å behode? For det andre det som er den ønskede fremtiden på lengre sikt, Hva kjennetegner den, og ser vi noen lommer av den i dag?. Og for det tredje så er det den turbulente overgangsperioden som kan brukes på å holde fast og utsette, eller på å skape et større rom for endringene vi ønsker?

Elkington er innom noen eksempler og noen mer langsiktige visoner når det gjelder hva grønne svaner kan være, innenfor blant annet energisektoren og matproduksjon. Her trekker han frem vertikal produksjon av plantebasert mat og laboratiorieprodusert kjøtt. Som alternativ til at hele dyr deles opp i komponenter, så produseres komponentene mye billigere enkeltvis. Men i denne boken er det få eksempler og det hele er relativt anekdotisk, slik at vi ikke får noen større analyse av og innsikt i hva som må til av systemisk endring og redesign av dagens verdikjeder og økosystemerog for at denne type alternative produksjonsstystemer skal kunne lykkes. 

søndag 6. juli 2025

Lang musikk til lange feriedager (74)

Noen ganger er poenget med å høre lenge på musikk en lang sommerdag på stranden å oppdage noe du ikke kjenner fra før. Et ordenltig dypdykk for å finne ut noe nytt. Og objektet for dypdykket denne gangen har vært Dusty Springfield.

Jeg hadde ganske lite kjennskap til henne fra før, ut over å ha hørt "Son of a Preacher Man", "You Don't Have To Say You Love Me" og "I Only Want to be With You" fra 60-tallet, omtrent på den tiden jeg ble født. Et perfekt utgangspunkt for å lete frem en omfattende samling med de størte hitlåtene, men gjerne også noen rariteter eller materiale fra andre deler av karrieren. 

Samlingen som pekte seg ut best egnet var den store samlingen "The Magic of Dusty Springfield". Den finnes også i fysisk versjon på 4 CDer, men er på Spotify og har der 92 sanger på 4 og en halv times spilletid. Dette er strengt tatt bare ut utdrag av et enda større fysisk "box set" som heter "Goin' Back" og inneholdt 3 DVDer med 98 TV-opptredener i tillegg til de 4 CDene. Den koster mange hundre kroner og er ikke spesielt egnet for en badestrand, så Spotify-versjonen med 92 sanger er helt utmerket.

Litt mer om Dusty Springfield først. Hun het egentlig Mary O'Brien og vokste opp i London med irske innvadrerforeldre, men da hun og broren Dion skulle starte band kalte de seg the Springfields. Hun var en enorm stjerne i Storbritannia med en rekke top 10 listeplasseringer i både UK og USA mellom 1964 og 1969, og hadde også et eget TV-show. På 70-tallet ga hun også ut flere album, men uten den samme kommersielle suksessen, men midt på 80-tallet ga hun ut en singel sammen med Pet Shop Boys og havnet på hitlistene igjen både med den og et par påfølgende sanger. Også på 90-tallet ble det et par album. Hun døde i 1999.

"The Magic of Dusty Springfield" er som nevnt delt inn i fire CDer der den første er en ganske rendyrket greatest hits-samling på 26 sanger i kronologisk rekkefølge. Her er nevnte "Son of a Preacher Man", "You Don't Have To Say You Love Me" og "I Only Want to be With You", og også "Wishin' and Hopin'", "I Just Don't Know What To Do With Myself", "Goin' Back" og "I Close My Eyes and Count to Ten", for å nevne noen. Og her er også Pet Shop Boys singlen "What Have I Done to Deserve This?" og de påfølgende singlene "In Private" og "Reputation".

CD 2 består av demoer, alternative versjoner og rariteter, og mye er absolutt verdt å høre på, som remiksen av "I Only Want To Be With You" og "The Look of Love". CD 3 består i sin helhet av "At the BBC"-innspillinger. Til dels sjarmerende, men litt varierende kvalitet på både opptakk og innhold. Og den siste CD 4 er en blanding av litt av hvert fra musikaler og show av ulike slag og forskjellige tidspunkter. Her får vi blant annet høre "Spooky" og "Nothing Has Been Proved" og "Wherever Would I Be?" Fin musikk som ikke er spesielt krevende å høre på, og derfor egner seg utmerket på litt late sommerdager.

-------

Og her er lenke til alle tidligere og alle fremtidige bidrag (etter hvert som de kommer) i spalten Lang musikk til lange feriedager.