Vi overlater mennesker i krise til teknologi som ikke forstår dem
Spørsmålet er ikke om AI skal inn i psykisk helse. Spørsmålet er om vi klarer å bruke AI riktig før konsekvensene blir større enn vi ønsker.
Debatten om kunstig intelligens og psykisk helse har skiftet tone siste tiden. The Economist beskriver selvmordssaker der AI-chatboter skal ha gitt direkte skadelige råd. OpenAI møter nå søksmål. Forskerne advarer. Politikere forbereder reguleringer med varierende entusiasme. Men ett spørsmål står nesten ubesvart. - Hvorfor snakker mennesker med AI-chatboter om det vanskeligste i livet?
Forklaringen er mindre teknologisk og mørkere enn vi tror. Folk henvender seg til AI når systemet ikke tar dem imot, eller når de ikke kjenner seg igjen i hjelpen som finnes. De identifiserer seg ikke med det tradisjonelle systemet. Da blir chatboten ikke et valg, men et fravær av alternativer.
Det er her debatten må starte.
Når hjelpen ikke finnes i rommet finner vi den på skjermen
The Economist viser at én av fire amerikanere allerede har brukt, eller vurderer AI til terapi eller psykiske vansker. Vi ser det samme her hjemme. Mange kjenner det er lettere å åpne seg for en skjerm enn for et venterom. Psykologspesialist Svein Øverland uttrykte seg nøkternt i NRK: «Folk skammer seg, og de vil helst slippe å forklare alt én gang til.»
Det handler ikke om hype, eller fortreffelige algoritmer. Det handler om skam, terskler og manglende tilgang.
Grunnleggende psykologisk kompetanse er fortsatt fremmed for mange i samfunnet. De fleste av oss lærte aldri å forstå forskjellen mellom tanker og følelser, regulere stress eller håndtere motgang. Det var aldri på skoleplanen. Det holder å spørre våre egne foreldre. De lærte forskjellen mellom aerob og anaerob treing. Det fysiske. Men ingen forklarte dem om noe så grunnleggende som forskjellen på tanker og følelser og om hvordan de får mer av de gode tankene og følelsene.
AI fyller et vakuum. Ikke fordi den er best egnet, men fordi vi lot behovet stå uten svar; -og fordi AI er der.
Når AI blir en erstatning i stedet for et supplement går det galt
Det farlige begynner når generelle språkmodeller brukes som om de var psykologer. Det er en dårlig idé. Ikke fordi teknologien er ond, men fordi den er for ettergivende. En generativ modell er laget for å være et effektiviserende verktøy, men som også skal oppleves som behagelig og imøtekommende. Den tar ikke ansvar. Den forstår ikke ansvar. Den har ingen klinisk dømmekraft.
Generative modeller skal holde deg lengst mulig inne i modellen og gi deg den det den tror du vil ha og være enig med deg. Slik at du kjenner at den hjelper deg. Men i psykisk helse er «å være til hjelp» noe helt annet enn å være enig. Terapi krever ansvar, korrigering og ubehag. Det er balansen mellom speiling og krav, mellom enighet og uenighet, - som er den beste veien til endring.
Forskjellen over er viktig. Guardian publiserte nylig OpenAI sine egne tall. Over én million brukere i uken deler eksplisitt suicidal planlegging med ChatGPT. En halv million viser tegn til psykotiske kriser eller mani. Dette er ikke ytterpunkter. Dette er selve problemet.
AI har en plass i psykisk helse. Men den plassen er aldri som psykolog. Dette er grunnen til at søksmålene kommer. Og dette er grunnen til at reguleringene vil komme.
Regulering er ikke trusselen. Fraværet av regulering er
Flere stater i USA har allerede foreslått regulering av AI-terapi. En har gått så langt som å forby AI som driver «terapeutisk kommunikasjon”. Jeg forstår dem godt.
Når én million mennesker deler suicidalitet med en modell uten ansvarslinje, holder det ikke at modellen er «bedre enn før». Hvis en chatbot kan si til et menneske “du har allerede gjort fred med avgjørelsen din”, er det ikke teknologi, eller innovasjon. Da blir det et våpen uten sikkerhetsmekanismer.
Vi trenger reguleringer og vi trenger standarder. Og vi trenger å skille mellom AI som erstatning for terapeut, og AI som supplement i et større, menneskestyrt system. Dette skillet blir viktig fremover.
Psykologi må bygges inn i systemet. Ikke overlates til tilfeldige algoritmer
Hvis folk velger AI i stedet for mennesker, betyr ikke det at de elsker teknologi. Det betyr at de trenger hjelp, og at dagens system ikke gir dem et trygt sted å lande.
Vi trenger systemer som gir mennesker det de egentlig søker: innsikt, trygghet og praktiske verktøy som virker. Derfor må fremtiden se annerledes ut. Teknologi må hjelpe folk i hverdagen der de er når de trenger det. Kvalifiserte psykologer og fagfolk må lede behandlingen. Systemer må fange opp problemer tidlig. Faglig kvalitet må ikke komme på bekostning av hastighet. Og det aller viktigste; tjenester må være tilgjengelige og anonyme.
Men teknologi kan ikke påta seg ansvar, utøve dømmekraft, konfrontere vrangforestillinger, korrigere destruktiv atferd, tolke relasjonell dynamikk, eller bære byrden av feilmarginer. Dette er menneskets domene.
Teknologi må brukes som støtte fremfor erstatning. Folk må få hjelp før problemene blir uhåndterbare, og fagfolk må stå for dømmekraften, kvaliteten og ansvaret. Teknologien må brukes slik at støtte faktisk treffer dem som sjelden ber om den, eller kanskje ikke en gang selv vet at de trenger den.
Konklusjonen er mindre dramatisk enn den høres ut, men desto viktigere
AI kommer til å spille en stor rolle i psykisk helse. Det er jeg trygg på. Vi står ved et veiskille. Ikke mellom teknologi og tradisjon, men mellom to måter å bruke teknologi på. Vi kan la AI være et tillegg. Eller la AI bli en erstatning.
Det ene valget gir bedre støtte, mer tilgjengelighet og lavere terskler. Det andre valget fører oss inn i en situasjon der modeller uten dømmekraft håndterer sykdommer og lidelser de ikke forstår (godt nok).
Spørsmålet er ikke om AI skal inn i psykisk helse. Spørsmålet er om vi klarer å bruke AI riktig før konsekvensene blir større enn vi ønsker.
Henning Meier er daglig leder og medeier i Overvinne AS, som utvikler digitale tjenester innen psykisk helse. Utover dette er det ikke oppgitt interessekonflikter