SIKKERHET: Det må tenkes sikkerhet i alle ledd i arbeidet med kunstig intelligens, skriver Inger Anne Tøndel i Direktoratet for e-helse. Illustrasjonsfoto: Getty Images

Kunstig intelligens løser problemer samtidig som den skaper nye

Det er nødvendig å forstå hva den nye teknologien fører med seg av sikkerhetsrisiko.

Publisert
Inger anne tøndel
Inger Anne Tøndel (Ph.D.) er seniorrådgiver ved avdeling for informasjonssikkerhet i Direktoratet for e-helse. Foto: Privat

INFORMASJONSSIKKERHET ER GRUNNLEGGENDE for å lykkes med kunstig intelligens. Norm for informasjonssikkerhet og personvern i helse- og omsorgssektoren inneholder en oversikt over hvilke risikomomenter som må vurderes ved bruk av slike systemer, samt hva du må se etter for å kjenne igjen god sikkerhet.

Kunstig intelligens er et tveegget sverd: Den nye teknologien hjelper til med å løse problemer, samtidig som den skaper nye. Kunstig intelligens har blant annet blitt beskrevet som en teknologisk revolusjon for en forebyggende helsetjeneste, og kan være en del av løsningen på flere av utfordringene helsesektoren står overfor. Samtidig har vi en verdenssituasjon der cyberangrep er en konstant trussel. Da er det nødvendig å forstå hva kunstig intelligens bringer med seg av sikkerhetsrisiko – og jobbe tverrfaglig for å håndtere denne risikoen.

I ALLE LEDD. På EU-nivå jobbes det aktivt med regulering av kunstig intelligens, og sikkerhet er en del av dette arbeidet. Likevel kan ikke sikkerhetsarbeidet og vurderingene våre vente på denne reguleringen. Den teknologiske utviklingen går raskt. Sikkerheten er en grunnleggende forutsetning for å lykkes, og må håndteres helt fra man plukker ut data for å trene systemet, velger en algoritme for læring, eller bygger videre på en eksisterende grunnmodell. Om man bygger og anskaffer KI-systemer som ikke har sikkerhet innebygd, er det vanskelig å få tilstrekkelig sikkerhet kun ved å prøve å bygge en mur rundt systemet i etterkant.

Sikkerhetsarbeidet og vurderingene våre kan ikke vente på EU-reguleringen.

Kunnskap om risiko hjelper med å skille sikkert fra usikkert. For å støtte helsesektoren, inneholder normen en innføring i sikkerhetsrisiko i systemer som benytter kunstig intelligens. Her finnes det en oversikt over hva man typisk må vurdere i slike systemer når det gjelder bruk av data for trening, selve utviklingsarbeidet, samt hvordan tjenesten tilbys og brukes. Det gis også tips til hvordan utviklere, innkjøpere og brukere kan kjenne igjen systemer med god sikkerhet.

RISIKOVURDERING. Å vurdere risiko og stille krav til sikkerhet høres ut som ekspertoppgaver, noe sikkerhetsfolk og eksperter på kunstig intelligens burde ordne opp i. Og ja, det kreves ekspertkunnskap om teknologien som benyttes. Men det kreves også kunnskap om hvordan systemene skal brukes i helsehjelpen, og denne kunnskapen er det ikke teknologene som sitter på. I tillegg vil sikkerhetsrisiko måtte veies opp mot andre kvaliteter, slik som personvern, gjennomsiktighet, nøyaktighet og rettferdighet. For å gjøre gode avveininger må ulike profesjoner sammen utforske denne nye teknologien med muligheter og risiko. Derfor kan ikke kunnskap om sikkerhetsrisiko knyttet til kunstig intelligens være kun for spesielt interesserte.

Kompetanse om risikoene knyttet til kunstig intelligens og tips om hva man kan se etter for å vurdere sikkerheten, vil gjøre sektoren bedre rustet til å bruke kunstig intelligens på en trygg måte framover.

Ingen oppgitte interessekonflikter|

Powered by Labrador CMS