Tillit og ansvar ved bruk av kunstig intelligens i helsesektoren
KI gir store muligheter for effektivisering. Men vi må være tålmodige og sette menneskelig klokskap i førersetet for utvikling og bruk.
Politikerne har en tydelig forventning om at helsesektoren tar i bruk kunstig intelligens (KI) for å realisere de mulighetene som ligger i effektivisering og økt kvalitet. På EHIN gikk helse – og omsorgsminister Jan Christian Vestre langt i å oppfordre helseaktører til å ta teknologien i bruk.
KI gir enorme muligheter i helsesektoren, men feil kan få alvorlige konsekvenser. Vi må ikke la effektiviseringsiver effektivisere bort de grunnleggende verdiene som både samfunnet vårt og helsesektoren er bygget opp rundt. Grunnleggende menneskerettigheter og rettsstatsverdier kan ikke effektiviseres bort.
Skjevheter i treningsdata, manglende transparens og overavhengighet av algoritmer er reelle risikoer, som kan få store konsekvenser i enkeltmenneskers liv.
Vi vet at KI er umoden, partisk og at den kan hallusinere.
Kunstig intelligens lover effektivisering og bedre kvalitet i helsesektoren. Men hva skjer når algoritmene svikter – og hvem står ansvarlig?
Tidsbesparelse eller livsfare?
KI kan frigjøre tid og øke kvalitet: Fastleger kan for eksempel få hjelp til journalføring som kan spare dem for betydelig med tid. Denne tiden kan brukes til pasientkontakt, eller til seg selv og egen familie. Sykehusledere kan få hjelp til ressursplanlegging og kvalitetskontroll. Og dette er bare et lite utvalg av eksempler på hvordan KI kan bidra til å effektivisere hverdagen til helsepersonell. Men verktøy skaper ikke verdi uten riktig praksis. KI er ikke en ny ansatt med egen kognitiv kapasitet – det er et verktøy som krever menneskelig klokskap og kompetanse både ved utvikling og bruk.
Risikoene er mange hvis KI ikke brukes forsvarlig. I helsesektoren er denne risikoen særlig høy, og kan føre til fatale konsekvenser. Feildiagnoser, feilmedisinering, uriktige journaler, hacking og lekkasje av persondata er eksempler på dette. Den geopolitiske virkeligheten vi lever i, har endret seg betydelig på kort tid og persondata er en ettertraktet vare og valuta. Vi må ta på alvor at ikke alle har gode intensjoner med hvordan dataene brukes.
Juridisk ansvar – hva sier loven?
Helt overordnet har både pasienter og ansatte krav på at KI brukes forsvarlig.
Pasientskadeloven gir pasienter rett til erstatning ved svikt i helsehjelp, også ved teknisk svikt i utstyr. Dette inkluderer KI. Ansvarsplasseringen avgjøres av hva som anses som forsvarlig praksis: Hvilke forventninger kan pasientene med rimelighet stille til helseforetakenes bruk av KI? Generelt stilles de samme krav til forsvarlighet som om det var en ansatt som utførte arbeidet selv. Det fritar altså ikke for ansvar at det er en KI som har gjort feilen. Hvis det står en feil i journalen som skyldes tale til tekst-program, så er dette legens ansvar. Derfor er det viktig å sørge for menneskelig kontroll over kritiske beslutninger.
EU har vedtatt KI-forordningen (AI Act), som innfører krav om menneskelig kontroll, transparens og risikoklassifisering. I Norge vil dette implementeres i den kommende KI-loven. I tillegg vil KI brukt til helsehjelp ofte regnes som medisinsk utstyr og omfattes av EUs regelverk for slikt utstyr.
Etikk og forsvarlighet
Forsvarlighetsstandarder har en nær kobling til etikken. Den nasjonale strategien for kunstig intelligens bygger på EU-kommisjonens retningslinjer for tillitsvekkende KI. Helt grunnleggende, bygger disse retningslinjene på syv grunnprinsipper:
1. KI-baserte løsninger skal respektere menneskets selvbestemmelse og kontroll
2. KI-baserte systemer skal være sikre og teknisk robuste
3. KI skal ta hensyn til personvernet
4. KI-baserte systemer må være gjennomsiktige
5. KI-systemer skal legge til rette for inkludering, mangfold og likebehandling
6. KI skal være nyttig for samfunn og miljø
7. Klare ansvarsforhold
Etikken og kravene som stilles til ansvarlig næringsliv preges av dilemmaer hvor det ikke alltid er klare svar. Men hvis man gjør gode risikovurderinger knyttet til hvilken risiko den konkrete bruken innebærer for enkeltmennesker og samfunn er vi kommet et godt stykke på vei. Vi må spørre oss om vi har tilstrekkelig menneskelig kontroll? Er algoritmene transparente? Er treningsgrunnlaget skjevt? Har vi god opplæring og klare ansvarsforhold?
Hva nå?
KI gir store muligheter for effektivisering. Men vi må være tålmodige og sette menneskelig klokskap i førersetet for utvikling og bruk. Vi vet at KI er umoden, partisk og at den kan hallusinere. Likevel har vi et ansvar for å bruke samfunnets ressurser effektivt og utnytte tilgjengelig teknologi – på en forsvarlig måte.
Jeg håper myndigheter og bransjeorganisasjoner vil gå sammen om å utvikle standarder som kan hjelpe bransjen å navigere trygt. I mellomtiden oppfordrer jeg alle til å skynde seg sakte, slik at vi kan nyte godt av en trygg og tillitsskapende helsesektor også i de kommende generasjoner.
Ingen oppgitte interessekonflikter