SKEPSIS ER IKKE MOTSTAND: Det første jeg vil understreke er at skepsis til KI ikke er det samme som motstand mot KI. Tvert imot. Jeg mener at Helse Vest viser en fornuftig og fremtidsrettet holdning når de selv utprøver verktøy før anbud og ønsker CE-merking velkommen, skriver Damoun Nassehi.

Skepsis som ressurs: Kunstig intelligens mellom trygghet og teknologisk determinisme

Jeg håper flere institusjoner følger Helse Vests eksempel, og at vi unngår å la enkelte leverandørers ønsker om minst mulig regulering dominere debatten.

Publisert Sist oppdatert

Kunstig intelligens (KI) er i ferd med å bli en integrert del av klinisk praksis, men debatten om hvordan den bør innføres har allerede vist tydelige skillelinjer. I en serie innlegg i Dagens Medisin har vi sett ulike perspektiver på dette spørsmålet: Behovet for å prøve ut teknologi før anskaffelse og krav om CE-merking (Trygg journal med kunstig intelligens), troen på at KI kan styrke pasientsikkerheten (Kunstig intelligens styrker pasientsikkerheten), og bekymringer knyttet til hva som skjer når KI skriver journalnotater (Når kunstig intelligens skriver journal – og ingen trippelsjekker).

I tillegg til debattinnleggene har behovet for ytterligere regulering av KI i helsetjenesten blitt flittig debattert på sosiale medier. Siden debatten har vært fragmentert over flere kanaler ønsker jeg å samle argumentene for at skepsis ikke bare er legitimt, men nødvendig, når vi tar KI inn i helsetjenesten.

Regulering og ansvar

Det første jeg vil understreke er at skepsis til KI ikke er det samme som motstand mot KI. Tvert imot. Jeg mener at Helse Vest viser en fornuftig og fremtidsrettet holdning når de selv utprøver verktøy før anbud og ønsker CE-merking velkommen. Slik merking gir ikke bare en teknisk kvalitetssikring, men er også et uttrykk for at helsevesenet ikke kan lene seg på leverandørenes løfter alene.

Viktig nok har debatten allerede gitt resultater. Den største norske KI-journalskrivningsaktøren, Noteless, er allerede CE klasse I-merket og melder nå at de er i gang med MDR-prosessen for CE klasse IIa. Dette er ikke en tilfeldig beslutning, men et arbeid de har hatt gående lenge. Det viser at skepsis og krav om regulering faktisk virker – og at leverandørene selv ser verdien av å bygge tillit gjennom uavhengig sertifisering. Når selv de største aktørene beveger seg i denne retningen, svekker det argumentet om at regulering er umulig, unødvendig eller hemmende.

I Mellom menneske og maskin skriver jeg at når en KI-agent bestemmer hva som skal med i et journalnotat, gjør den en klinisk vurdering – med medisinsk, juridisk og etisk betydning. Ansvar kan derfor ikke overlates til enkeltleger alene. Det må deles mellom leger, utviklere og myndigheter.

Skepsis som ressurs

Noen hevder at skepsis til KI er en bremsekloss. Jeg mener dette er en feilslutning. Skepsis er en ressurs. Den gjør at vi kan fange opp og hindre alvorlige feil som ellers kunne ha ført til skade.

Dette er særlig viktig fordi KI-systemer lider av velkjente kognitive utfordringer:

  • Automatiseringsbias: Vi stoler for mye på systemet.
  • Algoritmisk bias: Skjevheter i treningsdata reproduseres og forsterkes.
  • Algorithmic appreciation: Vi overvurderer maskinens evne fordi den formulerer seg så overbevisende.

Som jeg skriver i Mellom menneske og maskin kan språkmodeller argumentere svært overbevisende – også når de tar feil. Dermed blir kritisk tenkning og dobbeltsjekk ikke bare en anbefaling, men en plikt.

Hvordan redusere automation bias

Et nyttig bidrag i denne sammenhengen kommer fra en systematisk gjennomgang i Journal of Safety Science and Resilience (Abdelwanis et al. 2024). Artikkelen viser hvordan man kan bruke Bowtie-analyse for å forstå årsaker, konsekvenser og tiltak mot automation bias i helse-KI. Særlig kapittel 3.4 peker på flere tiltak vi bør ta på alvor:

  • Human-in-the-loop-design: KI bør støtte beslutninger, ikke ta dem alene.
  • Forklarbarhet (Explainable AI): Klinikere må forstå hvorfor systemet gir en anbefaling.
  • Trening og eierskap: Leger bør eksponeres for feilscenarier i opplæring, for å motvirke blind tillit.
  • Regulering: Krav til transparens, datasett-kvalitet og klare ansvarsforhold.

Dette stemmer godt med mine egne erfaringer og poeng i Mellom menneske og maskin: Utdanning, regulering og bevisstgjøring er helt avgjørende for at KI skal bli et verktøy vi kan stole på.

Teknologisk determinisme

En annen tendens i debatten er en form for teknologisk determinisme – argumentet om at vi ikke har noe valg, at teknologien kommer uansett, og at regulering derfor er nytteløst. Dette synet er både historieløst og uansvarlig.

Norge har vært tidlig ute med digitalisering i helsetjenesten: elektronisk pasientjournal, e-resept, videokonsultasjoner og nå KI. Påstanden om at vi ligger etter er rett og slett ikke riktig. Danmark, for eksempel, ligger bak oss når det gjelder innføring av KI-journalskrivere.

Vi har altså et valg. Vi kan forme bruken, reguleringen og utdanningen slik at KI styrker pasientsikkerheten uten å undergrave profesjonelt skjønn. Som jeg skriver i Mellom menneske og maskin, handler dette om å bruke KI som støtte.

Pasientmøtet som kjerne

Den viktigste grunnen til at vi må tenke nøye gjennom hvordan KI implementeres, er at teknologien påvirker lege–pasient-relasjonen. Når KI skriver journalnotater kan notatene bli ensformige, unødvendig lange, eller til og med feilaktige. Når feil først har sneket seg inn i en sykehusjournal, kan de få langvarige konsekvenser.

Men det finnes også positive erfaringer: Leger som «tenker høyt» for at KI skal fange opp informasjon, gir samtidig pasienten bedre innsikt i kliniske vurderinger. KI kan altså styrke kommunikasjonen, men bare hvis vi bruker teknologien med bevissthet om dens grenser. Legene opplever også at de sparer tid når de bruker KI-journalskrivere.

Veien videre

Jeg håper flere institusjoner følger Helse Vests eksempel, og at vi unngår å la enkelte leverandørers ønsker om minst mulig regulering dominere debatten. Når selv en stor aktør – som Noteless – nå beveger seg mot CE-klasse IIa, blir det stadig tydeligere at regulering ikke hemmer innovasjon, men styrker legitimiteten til teknologien.

Fremtiden for KI i helsetjenesten ligger i symbiotisk samarbeid: mennesker og maskiner som utfyller hverandre. Skepsis er en del av dette samarbeidet. Ikke for å si nei, men for å sikre at vi kan si ja – på en trygg og ansvarlig måte.

Videre lesning:

· Abdelwanis M. et al. Exploring the risks of automation bias in healthcare artificial intelligence applications: A Bowtie analysis. Journal of Safety Science and Resilience 2024:contentReferenceoaicite:2

· Nassehi D. Mellom menneske og maskin. 2025

Powered by Labrador CMS