SØKER RÅD: Selv om vi ikke kjenner omfanget, er det grunn til å tro at også et økende antall leger søker råd om pasientens symptomer og sykdom på ulike chatboter, skriver Gisle Berg Helland og Kim Kristoffer Dysthe. Illustrasjonsbilde: Getty Images

En amerikansk legekollega i lommen

KI er driver for store pågående omveltninger innen helsesektoren og om kort tid vil pasienter møte leger med en ny kollega i lommen, med navn som ChatGPT, Grok eller Claude.

Publisert
Gisle Berg Helland

Globale tek-giganter får stadig større påvirkning på nordmenns informasjonsflyt. Tenketanken Langsikt lanserte nylig 10 KI-bud i den hensikt å sette retning for norsk KI-teknologi, fremme Norges mulighet for å stå på egne ben og unngå å overlate både data og utvikling til internasjonale selskaper. Med samme hensikt lanserte helseministeren i sommer ideen om en norsk helse-chatbot for målrettet helseinformasjon til befolkningen. Denne tjenesten vil være åpen døgnet rundt, du trenger ikke vente på legetime og basert på tidligere undesøkelser kan svaret du får virke mer empatisk enn om du chattet med en ekte lege. Det er enkelt å peke på utfordringer med en slik tjeneste. Samtidig er behovet tydelig: Helseinformasjonen som innbyggere nå mottar gjennom de generelle KI-baserte språkmodellene er verken kvalitetssikret eller tilpasset norske forhold.

Legene tyr også til KI

Kim Kristoffer Dysthe

Denne bekymringen gjelder ikke bare pasienter. Selv om vi ikke kjenner omfanget, er det grunn til å tro at også et økende antall leger søker råd om pasientens symptomer og sykdom på ulike chatboter. Det er mye vi ikke vet om bruk av store språkmodeller som kunnskapsstøtte i norsk helsevesen. Denne teknologien introduseres ikke bare gjennom bevisst implementering i sykehus og legekontor, men også gjennom enkeltmenneskers vaner fra deres daglige liv. Veien blir derfor kort til å ta tjenester i bruk uten at konsekvenser for sikkerhet og kvalitet er vurdert. Det ryktes blant kolleger at en av de nye medisinske chatbotene, OpenEvidence, blir stadig mer populær blant norske sykehusleger. Dette finnes det ikke tall på, men det vil ikke lenger overraske. Medisin er et komplekst og vanskelig felt, og leger generelt vil strekke seg langt for å gi god behandling og for å unngå feil. Både ung og erfaren lege har behov for å rådføre seg med noen. Kunstig intelligente assistenter er alltid tilgjengelige med en behagelig blanding av konstruktive og rosende tilbakemeldinger. Leger er generelt gode til å forholde seg kritisk til informasjon, men mennesker har også en iboende evne til besjeling: Vi tillegger gjenstander og fenomener menneskelige egenskaper. Det er derfor nærliggende å tenke at også leger kan utvikle en relasjon til sin nye kollega. Av den grunn må vi undersøke i hvilken grad dette påvirker tillit til, og vurdering av råd som kommer fra disse tjenestene.

Bekymringsfullt, men uunngåelig

OpenEvidence er et felles prosjekt mellom flere svært anerkjente amerikanske institusjoner og innholdet kommer blant annet fra noen av de mest kjente medisinske tidsskrift som New England Journal of Medicine (NEJM) og Journal of American Medical Association (JAMA). Med på teamet er også folk fra amerikanske eliteuniversiteter, Google og utvalgte amerikanske investeringsselskaper. OpenEvidence er bare ett eksempel på en rekke lignende assistenter. Slike apper benytter store språkmodeller (for eksempel nevnte ChatGPT eller Claude) for å generere et naturlig, overbevisende språk. For å spisse svarene og unngå hallusinasjoner settes det opp en såkalt Augmented Generation (oftest i form av en RAG) som innebærer at man først gjennomfører et søk og forer språkmodellen med relevante kilder sammen med spørsmålet som ble stilt. Kildene er i dette tilfellet som sagt særdeles anerkjente kilder til kunnskap. Utfordringen ligger imidlertid i at det nettopp er internasjonale kilder som ligger til grunn. Norsk helsevesen og forvaltning bruker betydelige ressurser på å lage egne retningslinjer tilpasset norsk praksis for utredning og behandling. Videre er det slik at selv ikke en RAG helt vil forhindre upresise svar som kommer fra språkmodellens grunntrening. Selv et slikt system vil kunne gi upresise råd og misvisende støtte som ikke er forankret i den kilden man forsøker å hente kunnskap fra.

Det er flere legitime grunner til å være bekymret for at slike språkmodeller er det leger lener seg på. Samtidig er det ikke til å unngå at det nå finnes en ny kollega i lommen på stadig flere norske leger. Myndighetene må derfor bestemme seg for om denne nye kollegaen skal leveres av generelle språkmodeller fra amerikanske selskaper, eller investere i den innsatsen som alternativet krever.

Ingen oppgitte interessekonflikter

 

Powered by Labrador CMS