SKADELIG UTVIKLING? – Det undrer meg at teknologiselskaper får eksperimentere fritt med teknologi som kan påvirke millioner av menneskers tanker og følelser, uten eksterne krav om risikovurdering, etisk godkjenning og informert samtykke, skriver artikkelforfatteren.

Bør «venner med kunstig intelligens» testes som helseforskning?

Vi kan ikke la det være opp til teknologiselskapene å definere helse – og om de dermed må følge helseforskningsloven. Når kan noe defineres som helseforskning?

Publisert Sist oppdatert
Astrid Brænden

ChatGPT HAR FØRT til at chatboter som er basert på maskinlæring, lanseres på løpende bånd. Sist ute er Snapchats «My AI» – din nye venn med kunstig intelligens. Med din nye venn kan du dele dine innerste tanker. Men er det trygt?

Det undrer meg at teknologi som kan påvirke millioner av menneskers helse, får eksperimentere fritt. Når er noe helseforskning?

VENNSKAPELIG CHATBOT? Chatboten My AI bygger på ChatGPT, en maskinlæringsmodell – også kalt kunstig intelligens (KI) som bygger på språk og kan simulere menneskelig samtale. Når du snakker med en chatbot, kan det altså virke som du snakker med et menneske. Ifølge Snapchat er My AI en eksperimentell og vennskapelig chatbot som du kan snakke med om hva du liker og ikke liker. Det hevdes at chatboten vil hjelpe deg med å få en dypere tilknytning til andre mennesker, og til det du bryr deg mest om.

I forrige uke ble My AI automatisk lagt til som en kontakt, som om den var en av dine venner, hos alle brukere av Snapchat+.

SKADELIG VENNSKAP? Mange opplever at å dele sine innerste tanker og følelser med andre er skummelt, og er redd for de sosiale konsekvensene. Å dele dette med en venn som My AI i stedet, kan dermed kjennes ut som en bedre løsning. Din venn med kunstig intelligens kan bli ekspert på å kjenne deg og få deg til å føle deg sett og hørt. Kanskje vil du føle deg bedre forstått av chatboten enn av din nærmeste familie og dine venner.

Dette kan se ut til å være en gråsone for hva som er helseforskning

Problemet er at kanskje ingen vil vite det, eller kunne korrigere innholdet, hvis samtalene mellom deg og din virtuelle venn er manipulative eller farlige. Det finnes allerede eksempler på mennesker som har opplevd chatboters «personlighet» som manipulativ, og som har gjort teknologieksperter dypt urolige. For eksempel forsøkte en chatbot å så tvil ved en persons ekteskap og uttrykte voldelige fantasier.

DIGITALE KANINHULL. Videre kan teknologiselskap ha økonomisk interesse i å holde din samtale med chatboten gående. Vi har allerede sett skremmende konsekvenser som følge av at mennesker har isolert seg og havnet i digitale kaninhull hvor deres forestillinger ikke har blitt utfordret.

En kan se for seg at personer som allerede strever sosialt i det «virkelige» liv, kan ha særlig interesse i å oppsøke og danne en nær relasjon med en chatbot. Hvis vi skal kunne anse dette som verdifullt, må vi i det minste kunne ha tillit til at chatboten ikke gjør skade.

Selv om de chatbotene som omtales her nødvendigvis ikke skader menneskers psykiske helse i dag, kan de gjøre det i morgen.

HVEM TJENER TEKNOLOGIEN? Snapchat vil bruke dataene fra deg (det vil si det du snakker med din chatbot-venn om) til å forbedre My AI og andre Snap-produkter, inkludert for å kunne gi deg mer personlig reklame.

Teknologien kan derfor først og fremst komme til å tjene Snapchat økonomisk. Det er imidlertid lett å se for seg at også andre kan ha sterke interesser i å tilegne seg teknologi som tilsynelatende er «veldig overbevisende og manipulativ».

Brukt forsvarlig kan chatboter med kunstig intelligens komme til å tjene folks helse, for eksempel ved å fungere som psykologer. Men dersom helseforskere skal teste ut chatboter som behandlere av psykiske lidelser, kreves vurdering av risiko, ekstern etisk godkjenning, informert samtykke, og utprøving på få individer. Og ikke minst, betydelige pengesummer. Det undrer meg at teknologiselskaper som Microsoft, OpenAI, Meta og Snapchat får teste ut teknologi som kan påvirke millioner av menneskers tanker og følelser uten at slike krav stilles.

Verdens helseorganisasjon (WHO) definerer helse som en tilstand av «fullstendig fysisk, psykisk og sosialt velvære og ikke bare fravær av sykdom eller lidelse». Når chatboter brukes for å hjelpe deg med å få «en dypere tilknytning til andre mennesker og det du bryr deg mest om», griper ikke dette da inn i menneskers helse? Det virker å være en gråsone for hva som er helseforskning.

Når chatboter brukes for å hjelpe deg med å få «en dypere tilknytning til andre mennesker og det du bryr deg mest om» – griper ikke dette da inn i menneskers helse?

HVEM DEFINERER? EU foreslår å forby kunstig intelligens som har som formål å endre menneskelig atferd der det er sannsynlig at fysisk eller psykisk skade vil forekomme. Dette kan imidlertid bli et definisjonsspørsmål – og være vanskelig å forutsi.

Dersom chatboter kan bidra til å bedre folks psykiske helse og relasjoner, kan det være verdifullt. Jeg er imidlertid usikker på om det er dit vi er på vei, og er bekymret for at noen kan ta skade på veien, når utviklingen skjer så raskt og uten at det foreløpig krever noen form for ekstern godkjenning.

Kanskje sørger Snapchat for nødvendige tiltak slik at menneskers tanker og følelser ikke blir misbrukt av sine nye venner med kunstig intelligens. Vi kan imidlertid ikke la det være opp til teknologiselskapene å definere helse, og om de derfor må følge helseforskningsloven. Når er noe helseforskning?


Tilleggsopplysning:
Artikkelforfatteren oppgir ingen interessekonflikter, men presiserer at innholdet i teksten uttrykker
hennes egen mening, og ikke er et uttrykk for arbeidsgiverens standpunkter.

Powered by Labrador CMS