Mange bruker i dag chatboter som Chat GPT og Claude som samtalepartnere og rådgivere, og deler også sine innerste tanker med en kunstig intelligens. Er det slik at godt trente KI-samtalepartnere kan bidra til å å forebygge og hjelpe til med vår mentale helse? Eller er dette en farlig utvikling?
Hvordan skal vi tenke om bruk av KI som psykoloigsk rådgiver og samtalepartner for personer som sliter med ulike psykiske utfordringer? Og hva med KI brukt til diagnose, behandlig og oppfølging av psykisk sykdom, der det virkelig er snakk om dyp fagkompetanse og terapeutiske samtaler, og der det er alvolige konsekvenser hvis man gjør feil.
Carl Sagans profeti
Idéen om at datamaskiner med en form for "digital intelligens" kan hjelpe mennesker med psykiske utfordringer og plager er ikke en ny visjon. I 1975 skrev astronomen Carl Sagan et essay i tidsskriftet "Natural History" med tittelen "In Praise of Robots" at (oversatt til norsk, og litt språklig modernisert):
«Ingen slike dataprogrammer er i dag gode nok til bruk i psykiatrien – men det samme kan sies om flere menneskelige terapeuter. I en tid der stadig flere mennesker ser ut til å trenge psykisk helsehjelp, og der deling av datakraft allerede er blitt vanlig, kan jeg forestille meg at det utvikles et nettverk av psykoterapeutiske terminaler – omtrent som rekker av telefonkiosker – der vi for noen få dollar per samtale kan snakke med en oppmerksom, kvalitetssikret og i hovedsak ikke-styrende terapeut.»
Et nettverk av telefonkiosker brukt som terapeutiske terminaler og "tidsdeling" av datakraft høres litt gammeldags ut, men vi kan jo i stedet kalle det KI-apper på smarttelefonen som brukes til samtale, rådgivning, og kanskje diagnose og behandling. Og Carl Sagans observasjon om at stadig flere ser ut vil å trenge psykisk helsehjelp, men at det ikke er nok fagfolk tilgjengelig som kan yte denne hjelpen, er i hvert fall minst like presis i dag som den var for 50 år siden.
Chat GPT og Claude som våre nærmeste
Poenget er at det som var en temmelig fjern fremtidsforestilling i 1975 er blitt realiteten i dag. Det er ikke noe som kommer, det er noe som allerede skjer, og som kommer til å øke i omfang. Chat GPT og Claude er blant de foretrukne samtalepartnerne om private og fortrolige ting for veldig mange, særlig unge mennesker, og det finnes også andre og mer spesialiserte KI-boter for psykologisk rådgivning og psykisk helsehjelp.
Open AI skrev på sin blogg i fjor høst om hvordan de arbeider med å utvikle prinsipper for å håndtere blat annet samtaler om selvskading og selvmord. Om en stund vil det komme flere saker for retten i USA der KI-leverandørene er saksøkt fordi språkmodellenes samtaler og råd er beskyldt for å medvirke til selvmord og selvmordsforsøk, og for å gi svært dårlige råd til folk som trenger hjelp.
Er bygging av fortrolige relasjoner med en KI oppskriften på en katastrofe, der hallusinerende og potensielt farlige chatboter settes til å håndtere noe av det mest private og sårbare som finnes? Eller er det tver imot slik at det i en verden er kanskje en milliard mennesker liter av psykiske helseplager, så gir vår nye digitale samtalepartnere oss noen muligheter til å få gjort mye mer for å forebygge og behandle ulike psykiske helseplager?
En roman og tre fagbøker
MIT Technology Review har nylig gått inn i denne problematikken i form av an artikkel med bokanmeldelser av fire foreskjellige bøker som går inn i hvordan KI tar rollen som terapeut, behandler eller samtalsepartner på områder som har med psykisk helse å gjøre. Artikkelen heter "The ascent of the AI therapist - Four new books grapple with a global mental-health crisis and the dawn of algorithmic therapy.". Det er en roman og tre fagbøker det er snakk om. Jeg har foreløpig ikke lest noen av dem, men jeg tror at i hvert fall et par av dem må på vårens leseliste. Bakteppet beskrivers slik:
"We’re in the midst of a global mental-health crisis. More than a billion people worldwide suffer from a mental-health condition, according to the World Health Organization. The prevalence of anxiety and depression is growing in many demographics, particularly young people, and suicide is claiming hundreds of thousands of lives globally each year. Given the clear demand for accessible and affordable mental-health services, it’s no wonder that people have looked to artificial intelligence for possible relief. Millions are already actively seeking therapy from popular chatbots like OpenAI’s ChatGPT and Anthropic’s Claude, or from specialized psychology apps like Wysa and Woebot."
The Silicon Shrink og Dr. Bot
Artikkelen beskriver det krevende, og kanskje paradoksale, utgangspunktet der to systemer vi ikke har full innsikt i hvordan fungerer skal samhendle med hverandre. De store språkmodellenes virkemåte beskrives noen ganger som "black box" fordi vi ikke vet akkurat hva som frembringer resultatene som kommer ut. Dette kombineres med en menneskehjerne, som også er en form for "black box" der vi ikke vet akkurat hva som skjer på innsiden. I artikkelen skriver de at:
"These two types of black boxes are now interacting with each other, creating unpredictable feedback loops that may further impede clarity about the origins of people’s mental-health struggles and the solutions that may be possible."
Jeg har som nevnt ikke lest bøkene enda, og kjenner dem bare fra omtalen i artikkelen, men det som skrives om bøkene er spennende. Det kan virke som den mest tilgjengelige fagboken her er "Dr Bot" av Charlotte Blease, med undertittelen "Why doctors can fail us - and AI could save our lives". Forfatteren skriver både som fagperson og som pårørende til flere familiemedlemmer med dårlige erfaringer med helsevesenet, og gir uttrykk for en positiv, men balansert forventning til hva KI kan bidra med.
"The Silicon Shrink" av Daniel Oberhaus, med undertittelen "How Artificial Intelligence made the world an asylum" er også en sterkt personlig fagbok skrevet av en person med både pårørendeerfaringer og teknologibakgrunn. Jeg tror han balanserer mellom å tenke at vi burde kunne bruke dataene fra alle de digitale tingene vi omgir oss med til å forstå og handle når noe er er galt, men samtidig er han opptatt av at vi med KI risikerer å skape et slags "digitalt aysl" er vi risikerer å bli fanget av våre egne data. I hvert fall hvis det ikke bare er snakk om chatbot-terapi, men noe som går videre og omtales som psykiatrisk kunstig intelligens.
Boken "Chatbot Therapy: A Critical Analysis of AI Mental Health Treatment" av Eoin Fulham blir beskrevet som den mest akademiske av disse bøkene, og er en analyse av automatiserte diagnoser og behandlinger, og de økonomiske økosystemene som også finnes rundt disse. Nå er ikke behovet for å kombinere fagligehet og kvalitet med behovet for å tjene penger noe som er nytt med KI-verktøy i helsetjenestene. Det gjelder også annen helseteknologi, legemiddelutvikling og ulike tjenester. Men med enhver ny teknologi som skaper muligheter kommer det også et sett med problemer
Den siste boken er romanen "Sike" av Fred Lunzer. Det er en fortelling om en ung mann som tar i bruk en anvansert personrettet KI-terapeut integrert i noen smarte briller. Å beskrive hva en roman handler om uten å ha lest den går ikke, så jeg skal nøye meg med å si den ser spennende ut.







