FRIGJØR TID: Når informasjon kan sammenstilles raskere, analyseres grundigere og brukes mer systematisk i dialog med pasienten, frigjøres tid og oppmerksomhet til det som faktisk definerer legeyrket: vurdering, prioritering og ansvar, skriver Silvija Seres.

KI endrer klinisk praksis - ikke ansvaret

Utviklingen i medisinsk KI skjer nå fra kvartal til kvartal – og påvirker klinisk arbeid før den påvirker behandling.

Publisert

Klinisk arbeid spenner fra forberedelse og analyse til pasientdialog, før det munner ut i den faglige beslutningen og behandlingen. Mye av arbeidet skjer før selve beslutningen tas: journalsøk, gjennomgang av prøvesvar, analyse av tidligere vurderinger og forberedelse til samtalen med pasienten.

Det er nettopp disse leddene – forberedelse, analyse og dialog – flere nye KI-studier omtaler. De viser at medisinsk kunstig intelligens har blitt svært god på oppgaver som tidligere var tidkrevende og ujevnt utført i en presset klinisk hverdag. Tempoet og konsistensen i disse systemene endrer forutsetningene for klinisk arbeid, uten å flytte ansvaret for beslutning og behandling.

Legens ansvar endres ikke. Det er forankret i de samme profesjonelle idealene som har fulgt legeyrket siden Hippokrates

Et godt dokumentert eksempel er MedGemma, utviklet av Google. Det er en medisinsk KI-grunnmodell, trent på store mengder medisinsk tekst og bilder og deretter tilpasset kliniske oppgaver. I tester reduserer modellen feil i strukturert journalsøk med rundt 50 prosent, sammenlignet med generelle KI-grunnmodeller, som ChatGPT eller Copilot. I bildeklassifisering, blant annet røntgen, presterer modellen 15–18 prosent bedre enn generelle multimodale KI-modeller. Også medisinsk resonnering, der flere kliniske funn vurderes i sammenheng, er betydelig forbedret.

Mer hjelpsomme og empatiske

Et beslektet og klinisk viktig funn gjelder pasientkommunikasjon. I flere studier der helsepersonell har vurdert svar på reelle pasienthenvendelser uten å vite hvem som har skrevet dem, blir KI-svar (fra generelle KI-modeller som ChatGPT) vurdert som mer informative, mer hjelpsomme og mer empatiske enn svar fra leger. Dette er dokumentert i en stor eksperimentell studie publisert i Journal of General Internal Medicine i 2025, der over 1400 legeutdannede deltakere vurderte svar blindet for avsender. KI-svar ble vurdert som mer empatiske, med moderat til stor effektstørrelse (Cohen’s d ≈ 0,56). Språkanalyser viste mer strukturert språk, tydeligere anerkjennelse av pasientens bekymring og færre tegn til tidspress.

Funnene støttes av en systematisk oversikt og meta-analyse publisert i British Medical Bulletin i 2025. Analysen omfattet 15 studier og viste at tekstbaserte KI-svar gjennomgående ble vurdert som mer empatiske enn svar fra helsepersonell, med en samlet standardisert effektstørrelse på 0,87.

Dette betyr ikke at KI har empati eller kan ta klinisk ansvar. Det betyr at KI leverer gjennomarbeidede forklaringer med en språklig kvalitet som ofte er vanskelig å oppnå i en presset klinisk hverdag. Når slike forklaringer blir lett tilgjengelige utenfor klinikken, endres også rammene for møtet mellom pasient og lege.

Relasjonen formes nå i et nytt informasjonslandskap. Pasienter møter til konsultasjon med informasjon fra nett, sosiale medier og KI-verktøy som forklarer symptomer, prøvesvar og journalutdrag før møtet. Denne dynamikken vil forsterkes av nye modeller som kan anslå langsiktig sykdomsrisiko basert på pasientdata fra klokker, ringer og annet utstyr i pasientens private eie. Dermed forskyves inngangen til konsultasjonen fra undersøkelse til fortolkning.

Ansvaret ligger hos legen

Parallelt utvikles KI-verktøy for faglig utredning og diagnostisk støtte. Et eksempel er AI Diagnostic Orchestrator fra Microsoft, der flere KI-modeller samordnes for diagnostisk støtte i krevende utredninger. Systemet ble testet på 304 pasienteksempler fra The New England Journal of Medicine og oppnådde korrekt diagnose i rundt 85 prosent av tilfellene. Også utenfor Europa og USA skjer utviklingen raskt, blant annet i Kina, der medisinsk KI integreres i både primær- og spesialisthelsetjenesten som nasjonal strategi.

Samlet peker disse funnene i samme retning: Medisinsk KI blir svært god på klinisk forberedelse, informasjonsanalyse og pasientdialog – arbeid som tar mye tid, men som sjelden oppleves som legens kjerneoppdrag.

Legens ansvar endres ikke. Det er forankret i de samme profesjonelle idealene som har fulgt legeyrket siden Hippokrates, og som i dag er formulert i Genève-erklæringen: å sette pasienten først, utøve faglig dømmekraft og ta ansvar for konsekvensene av medisinske valg. Dette ansvaret kan ikke delegeres til teknologi.

Samtidig er forutsetningene for klinisk arbeid i rask endring. Når informasjon kan sammenstilles raskere, analyseres grundigere og brukes mer systematisk i dialog med pasienten, frigjøres tid og oppmerksomhet til det som faktisk definerer legeyrket: vurdering, prioritering og ansvar. Skal slike verktøy gi bedre helsetjenester, må de tas i bruk på en måte som er forankret i medisinsk praksis og profesjonsetikk. Det ansvaret ligger hos legen – også i møte med ny teknologi.

Seres oppgir ingen økonomiske eller kommersielle bindinger til KI-leverandører som omtales

Powered by Labrador CMS