FOREGANGSLAND: Jeg håper Norge fortsatt kan være et foregangsland i bruk av kunstig intelligens i helse. Men da må vi også være et foregangsland for ansvarlighet, skriver Damoun Nassehi.

Når kunstig intelligens skriver journal – og ingen trippelsjekker

KI gir reelle gevinster i hverdagen, men teknologien må brukes med skjønn. Vi kan ikke ofre pasientsikkerheten på effektiviseringens alter.

Publisert Sist oppdatert

Det er høy entusiasme for kunstig intelligens (KI) i norsk helsevesen. Nye løsninger lanseres ukentlig, og mange leger rapporterer om gevinst i form av tidsbesparelse og bedre flyt. Det er bra. Men nettopp derfor må vi også våge å løfte blikket og spørre: Går dette for fort? Og hvem har egentlig kontrollen?

Jeg forsker på bruk av KI i allmennpraksis, og intervjuer for tiden fastleger som bruker ulike KI-verktøy i klinisk hverdag. Mange er positive. Verktøyene gir oversikt, struktur og avlastning. Men når det kommer til automatisert journalskriving – altså der KI ikke bare transkriberer, men også tolker og formulerer selve notatet – er det grunn til alvorlig bekymring.

Alvorlige feil

Flere av informantene i studien min har oppdaget grove feil i KI-genererte journalnotater. Feil som kun ble oppdaget fordi legen kjente pasienten godt.

Et konkret eksempel er negasjonsfeil – der setningen «har ikke hatt hjerteinfarkt tidligere» journalføres som «har hatt hjerteinfarkt tidligere». Ett enkelt ord som mistolkes, kan føre til feilbehandling. 

Andre ganger blandes pasientens egen sykehistorie sammen med informasjon om andre personer, typisk hvis konsultasjonssamtalen tar en dreining og man kort diskuterer et familiemedlem eller noe fra nyhetene.

Slike feil fremstår gjerne plausible. Notatene er grammatisk riktige og språklig overbevisende. Men innholdet er direkte feil. Det oppdages ofte først når pasienten kommer tilbake, og legen leser gamle notater med klinisk blikk. Det reiser det ubehagelige spørsmålet: Hva med feilene som ikke blir oppdaget?

Manglende innsyn og kontroll

Per i dag finnes det ingen offentlig oversikt over hvilke språkmodeller som ligger bak kommersielle journalskrivingssystemer. Brukes OpenAI? Anthropic? Egenutviklede løsninger? Er det inngått databehandleravtale? Hvor lagres dataene? Brukes de til videre trening?

Dette vet vi ofte ikke. Det finnes heller ingen krav om at slike systemer skal være CE-merket som medisinsk utstyr. Dette er svært problematisk, særlig når teknologien ikke bare hjelper legen med å skrive – men foretar kliniske vurderinger.

Vi må skille klart mellom to typer bruk:

· Ren transkripsjon (tale-til-tekst) uten vurdering, innebærer lavere risiko.

· KI-generert journalskriving med tolkning og vektlegging, bør klassifiseres strengere – og dermed omfattes av strenge krav til CE-merking, dokumentasjon og ansvar.

Når en språkmodell bestemmer hva som skal med i journalen og hva som vektlegges, gjør den en klinisk vurdering. Det har medisinsk, juridisk og etisk betydning.

Eierskap til vurderinger

Personlig bruker jeg kunstig intelligens til flere oppgaver i klinikken – blant annet til innhenting av pasientinformasjon før konsultasjonen. Jeg har tilgang til hele konteksten og gjør mine egne vurderinger.

Journalnotatet derimot, skriver jeg selv. Jeg kjenner pasienten, jeg vet hva som er viktig, og jeg bearbeider informasjonen mens jeg skriver. Flere leger i min studie forteller at de husker pasientforløp dårligere når de ikke selv har skrevet notatet. Det er en viktig kognitiv prosess som forsvinner.

Journalføring er ikke bare administrasjon. Det er en del av den kliniske vurderingen. Og den må legen ta ansvar for.

Et varsko til myndighetene

Det som nå skjer, er at journalskrivere basert på KI rulles ut i spesialisthelsetjenesten uten klare krav til dokumentasjon, innsyn eller ansvar. Det finnes per i dag ingen regulatorisk mekanisme for å evaluere, overvåke eller kvalitetssikre bruken.

Risikoen for alvorlige feil er større i spesialisthelsetjenesten sammenliknet med et fastlegekontor!

Jeg vil derfor oppfordre helsemyndighetene til å:

  1. Kreve CE-merking for alle journalskrivere som gjør kliniske vurderinger
  2. Innføre krav om åpenhet om hvilke språkmodeller og treningsdata som benyttes

Uten dette risikerer vi at systemene sniker seg inn som standardverktøy – uten at pasientsikkerheten er tilstrekkelig ivaretatt.

Entusiasme og etisk ryggmarg

Det er mye å være begeistret for. KI gir reelle gevinster i hverdagen. Men teknologien må brukes med skjønn. Vi kan ikke ofre pasientsikkerheten på effektiviseringens alter.

Jeg håper Norge fortsatt kan være et foregangsland i bruk av kunstig intelligens i helse. Men da må vi også være et foregangsland for ansvarlighet. Jeg synes at vi har vært det til nå og håper at det kan fortsette.

Ingen oppgitte interessekonflikter

Powered by Labrador CMS