VI TRENGER SYSTEMER: Vi må bygge systemer for samspill mellom lege og maskin – ikke stumt tillate at globale selskaper omgår våre lover og verdier. I tillegg trenger vi opplysningskampagner der gir befolkningen nødvendig kunnskap til å kunne navigere KI landskapet, skriver Damoun Nassehi.

Snikinnføring av KI i helse skjer nå – hva gjør vi?

KI er et kraftfullt verktøy som kan bidra positivt i helsetjenesten – men kun dersom det skjer innen faglig forsvarlige rammer.

Publisert

På tross av helsemyndigheters forsiktighet pågår det en global snikinnføring av kunstig intelligens i helsetjenesten. Denne utviklingen drives ikke av behov i klinikken – men av teknologigiganters strategiske posisjonering.

Etter at Trump-administrasjonen i 2025 erklærte KI som et nasjonalt satsingsområde – og uttrykte at USA «må vinne KI-løpet» – har de største teknologiselskapene fjernet de (allerede minimale) begrensningene de hadde lagt på sine språkmodeller når det gjelder helserelatert rådgivning. Google og OpenAI har fjernet barrierer, samtidig som amerikanske reguleringsmyndigheter – inkludert FDA – har svekket sin kontroll med KI-baserte helsetjenester og wearables.

Nå rulles det ut en global infrastruktur for helseråd – uten at helsevesenet har bedt om det, og uten at samfunnet har tatt stilling.

Når Google blir allmennlege

The Guardian har nylig dokumentert hvordan Google «AI Overviews» gir direkte helseråd til brukere som googler symptomer eller medisinske spørsmål – råd som i flere tilfeller er direkte feilaktige eller potensielt skadelige. I Googles egen retorikk fremheves det at svarene «stort sett» er riktige. Men dette er irrelevant i en helsefaglig kontekst: det er ikke akseptabelt at noen råd er feil – særlig ikke når feilene er systemiske og uforutsigbare. I klinisk praksis er «ofte riktig» ikke godt nok.

Store språkmodeller vil alltid inneholde en viss feilmargin. Dette er ikke en svakhet som kan elimineres med mer datatrening – det er en fundamental egenskap ved teknologien. OpenAI selv har publisert forskning som viser at såkalte «hallusinasjoner» ikke kan unngås, bare reduseres. Dette betyr at ethvert KI-basert system vil produsere plausible, men uriktige helseråd – uforutsigbart og uten at brukeren merker det. Det er en farlig kombinasjon når brukeren er en pasient, og modellen opptrer som allvitende medisinsk rådgiver.

Det digitale grenseregimet svikter

Heldigvis har vi i Norge – og i Europa – en høyere terskel for medisinsk godkjenning, og et sterkere personvernregime. Men hva hjelper det når teknologigigantene ruller ut tjenester globalt, uten hensyn til nasjonale regler?

Det finnes i dag ingen tekniske eller regulatoriske mekanismer som forhindrer norske borgere i å bruke helseråd fra Google Gemini, ChatGPT Health eller liknende KI-rådgiver. Flere av disse verktøyene er allerede integrert i telefoner, søk og stemmeassistenter, og vil raskt bli en naturlig del av folks hverdag – også når det gjelder helse. Samtidig vet vi at pasienter i økende grad møter opp til konsultasjon med KI-genererte forklaringer, selvdiagnoser og behandlingsforslag.

KI er et kraftfullt verktøy som kan bidra positivt i helsetjenesten – men kun dersom det skjer innen faglig forsvarlige rammer. Vi må bygge systemer for samspill mellom lege og maskin – ikke stumt tillate at globale selskaper omgår våre lover og verdier. I tillegg trenger vi opplysningskampagner der gir befolkningen nødvendig kunnskap til å kunne navigere KI landskapet.

Ingen oppgitte interessekonflikter

Powered by Labrador CMS