Hovedsaken: Kunstig intelligens
1/2024

Pasientens fremtidige støtte?

Ishita Barua tror kunstig intelligens kan være til god hjelp for pasienter i fremtiden.

Tekst og foto:
Eldrid Oftestad

Redaktør i Hud & Helse

Ishita Barua tror KI-verktøy vil ha en demokratiserende effekt i fremtiden, slik at pasienter med ulik helsekompetanse får mer forståelse og kunnskap om sin helsesituasjon.

Forfatter, lege og kunstig intelligens-forsker Ishita Barua skriver i boken sin «Kunstig intelligens redder liv – AI er legenes nye superkrefter» at helsedata er «den nye oljen». Boken kom ut på Cappelen Damm i fjor.

Barua har doktorgrad i kunstig intelligens, som også kalles artificial intelligence (AI). Hun er prisbelønnet for sin forskning og er kåret til en av Norges 50 fremste Tech-kvinner. Forskeren kan fortelle at det skjer spennende ting innenfor hudfeltet med kunstig intelligens (KI) – ikke minst i vurdering av føflekker.

– Det er forskning som viser at kunstig intelligens er minst like god, og i mange tilfeller bedre, til å bedømme om en føflekk er god­­artet eller ondartet. Der er det masse algoritmer, så innenfor føflekk og føflekkreft har man kommet veldig langt.

Barua mener at det i tillegg stadig kommer nye typer KI-verktøy for å diagnostisere hudlesjoner eller utslett er farlige.

– Det finnes i dag KI-verktøy som gjør at du bare kan ta et bilde av et utslett, og så får du svar på hva det er med høy treffsikkerhet. Så bør du gå til legen som kan dobbeltsjekke at diagnosen er riktig, understreker hun.

– Bedre behandlere

Ifølge forskeren fører kunstig intelligens i medisin til at legene blant annet kan bli enda flinkere til å diagnostisere ulike sykdommer.

– Det kunstig intelligens kan gjøre for oss blant annet i hudfaget, er rett og slett å gjenkjenne mønstre bedre på bilder av føflekker eller hudutslett. Den presisjonen vil bli stadig bedre. I dag har vi verktøy både til å ta bilder av utslett, og man kan skanne bilder og bruke KI-algoritmer for å se hva det kan være på samme måte som når man googler. På vanlige utslett er disse verktøyene blitt veldig trent på å stille en diagnose, sier hun.

Men noen ganger kan konsekvenser av å bruke KI bli litt uheldige, noe selv Barua opplevde.

– Vi var en gruppe fra det norske kunstig intelligens-nettverket i helse som reiste til Nederland for å lære av sykehus og startups. En startup vi besøkte, hadde et verktøy som de hadde laget for å skanne for øyesykdommer. Den sjekket for tre typer aldersbetingede sykdommer. Siden jeg var yngst i rommet, tenkte jeg at jeg kunne melde meg frivillig til å prøve verktøyet. Og da viste den utfall på en av sykdommene, nemlig grønn stær. I verste konsekvens kan du bli blind av grønn stær, fordi det fører til et høyt trykk og dermed skade over tid på synsnerven. «Hæ, er jeg i ferd med å bli blind?», tenkte jeg.

Ingen av de som sto bak KI-verktøyet var helsepersonell, så de kunne ikke gi henne noe mer informasjon eller en forklaring.

– De kunne bare si at jeg hadde sykdommen, og det var omtrent det de sa. De kunne ikke gi noe forklaring, og de delte diagnosen med alle som var i rommet. De hadde null forhold til hvordan man håndterer sånne sensitive opplysninger. Jeg hadde jo bare sagt at jeg kunne ta undersøkelsen, ikke at resultatet skulle deles fritt etterpå. Og de klarte heller ikke å forklare meg betydningen av funnet heller, så jeg ble engstelig.

Maskinen misforsto

Vi spurte Bing AI images generator om verktøyet kunne lage et bilde av en lege som bruker kunstig intelligens-verktøy.

Foto: Bing AI images generator

Barua endte opp med å gå til øyelege, da hun kom hjem til Norge.

– Øyelegen mente at øynene mine var helt fine, men hun så en normaltilstand på det ene øyet mitt, som var en liten hvit avklaring på synsnerven. Det var antagelig den som førte til feilvurderingen av KI-verktøyet. Den så noe som liknet, men som ikke var det samme.

Maskinen hadde med andre ord misforstått og ga Barua en diagnose, men diagnosen var falsk positiv.

– Du tror at du er syk, altså positiv, men det er falsk positiv. Du er ikke syk, men du blir diagnostisert som syk. Jeg spurte øyelegen hvor vanlig normaltilstanden jeg hadde var, og hun sa den var under én prosent. Det er ikke noe rart at KI-verktøyet ikke har fått trent på bilder som viser denne normaltilstanden, når under én prosent av verdensbefolkningen har akkurat dette.

Vi spurte også Bing AI images generator om verktøyet kunne lage et bilde av en hudlege som bruker kunstig intelligens-verktøy.

Foto: Bing AI images generator

Kunstig intelligens-verktøyet skulle hatt mer trening?

– Den var trent på en majoritetsbefolkning, så jeg har faktisk opplevd å bli diskriminert av dette verktøyet, fordi den sa at jeg var syk. Jeg var ikke syk, men den tolket min normaltilstand som sykdom, fordi den ikke var trent på akkurat den normaltilstanden. Problemet med falsk positiv er at det gir deg egentlig ganske mye ekte bekymring, og det skal man ikke kimse av. Tenk hvis du hadde fått det med en kreftdiagnose. Du tror at du har kreft, og så er det ikke det. Hvis du bytter ut diagnosen med noe annet mer alvorlig, så skjønner man hvorfor det er viktig å redusere faren for falsk negativ og falsk positiv.

Aksept for risiko

Og dette er bildet Bing AI images generator laget etter beskrivelsen «Medisinsk behandling av utslett med kunstig intelligens».

Foto: Bing AI images generator

Samtidig understreker KI-forskeren at vi aksepterer risiko i medisin, og det må vi også gjøre med KI-medisin.

– Hvor mye godtar du at legene gjør feil versus hvor mye feil KI-vektøyet gjør? Kunstig intelligens gjør stadig mindre feil innenfor de fleste retninger. Vi aksepterer at menneskeleger gjør feil, fordi det er menneskelig å feile. Mens når AI-verktøyet gjør det, så har vi nulltoleranse.

Betyr det at vi egentlig aldri kan være helt sikre når vi bruker KI-verktøy?

– Vi har god trening i helsevesenet med å håndtere risiko. Nå må vi bruke det skjønnet også med KI-verktøy. Vi kan bruke dette verktøyet, som tross alt er ganske godt, men det vil ikke bli feilfritt, og det er ikke ment å erstatte oss leger. Det skal være et støtteverktøy, og det er fortsatt vi leger som skal ha kontrollen og er ansvarlige for at riktig diagnose stilles og riktig behandling gis.

Hudsykdommer kan ses forskjellig ut på hvit og mørk hud. Kan vi risikere at KI ikke får like god trening på hudsykdommer i ulik hudtype og derfor gjør feil?

– Under koronapandemien var det slik at oksygenmålere, såkalte pulsoksymetere, som du tar på for å se hvor mye oksygenmetningen er hos lungepasienter, ikke fungerte godt på fargede mennesker. Den kan rett og slett feil­aktig vise for høyt oksygennivå hos personer med mørkere hudfarge, og resultere i at disse pasientene ikke får livsnødvendig oksygentilskudd. Se for deg da utslett som primært minoriteter har, som er spesifikke for dem eller som ser annerledes ut på mørkere hud. Hva skjer hvis du trener på for dårlige data, at du trener KI-modellen mest på en majoritetsbefolkning som i Norge er folk med hvit hud? Hvordan skal du da oppnå høy treffsikkerhet på minoritetene? Det samme ser vi ved brystkreft, der tettheten i brystvevet er annerledes hos enkelte minoriteter. Vi må ta hensyn til dette, sier Barua.

Usikkert om treffsikkerhet

Løsningen er ifølge forskeren at modellene trenes på godt nok datagrunnlag for at de skal kunne være like treffsikre på alle deler av befolkningen. Men det kan være vanskelig å få til.

– Du kan godt si at vi skal ha en god nok representasjon i treningsgrunnlaget vårt. Men virkeligheten er en annen. I forskning generelt sliter vi med å rekruttere minoriteter og enkelte grupper. Men selv når du har klart å få det til, er det ikke sikkert at det blir treffsikkert nok. Vi klarte å bomme på disse oksygenmålerne, hvordan går det da med utslett som er mer sjeldne?

Barua forteller at selv i dag er KI først og fremst trent på ansiktsgjenkjenning av hvite menn.

– Kvinner og mennesker med mørk hud stiller allerede dårlig. Systemet er slik at vi hvis jeg ber om et bilde av en lege på chat-GPT, så får jeg som oftest et bilde av en hvit mann. Den gjengir det den er trent mest på, så der har vi en jobb å gjøre. Jeg tror hudfaget må være veldig fremoverlent i utviklingen av disse modellene, for jeg tror at det kan være store forskjeller der.

Samtidig mener forskeren at KI kan hjelpe oss til å bli mindre fordomsfulle og forutinntatte.

– Det blir mye større transparens på hva vi bygger en beslutning på eller hva du baserer behandlingsvalg og diagnosekriterier på. Klinikere og leger kan være ubevisst fordomsfulle, og det er helt menneskelig. Vi har lært at vi ikke skal agere på fordommer, men ubevisste fordommer er det per definisjon vanskelig å være klar over. Med KI-verktøyet kan vi gå tilbake til treningsgrunnlaget og kartlegge hvordan en beslutning treffes. Da kan vi for eksempel se at disse minoritetene ikke var med i treningsgrunnlaget og at anbefalingen baserte seg på en majoritetsbefolkning. Så vi kan på sikt bruke det til å avsløre, hvor vi i dag har for lite kunnskap og hvor vi i dag baserer vår terapi på skjeve datagrunnlag. Vi tror at vi har blitt opplært til ikke å være fordomsfulle, men egentlig viser det seg at det statistisk ikke stemmer.

«Hvor mye godtar du at legene gjør feil versus hvor mye feil KI-vektøyet gjør? Kunstig intelligens gjør stadig mindre feil innenfor de fleste retninger»

– Utjevnende effekt

– Innenfor dermatologien hevdes det fra flere hold at vi er i ferd med å få et todelt helsevesen for pasienter med hudsykdommer i Norge. Kan KI hjelpe til å demme opp for denne utviklingen?

– Jeg tror det kan gå i begge retninger. I starten er det kanskje bare de som har råd til private hudleger, som får glede av KI-verktøy. Men på sikt håper jeg at det har en utjevnende effekt, at det rett og slett gjør at forskjellene mellom ulike aktører blir mindre og at det kan hjelpe områder hvor legedekningen er dårligere, der man ikke like raskt får tilgang til hudlege. Kan KI brukes som et verktøy for å redusere noen av disse forskjellene? Kan det være at helsevesenet i Nord-Norge kan ta i bruk verktøy som gjør at de kan kompensere for noen av forskjellene, uten at det går på bekostning av det medisinske?

Pasientens rolle

– Hvilken rolle kan pasienten ha i utviklingen av kunstig intelligens?

– Det er tross alt data hentet med samtykke fra pasienter som er utgangspunktet for forskning og utvikling av KI-modeller. Så pasientene sitter på råvaren til utvikling av KI-modeller. Det betyr at de faktisk har en nøkkelrolle.

– Tenker du at KI også kan være en hjelp til bedre brukermedvirkning?

– Helt klart. Jeg tror at bedre bruker- eller pasientmedvirkning krever at pasienter forstår mer om sin egen helse. Ta for eksempel det som står i legejournaler. De er ofte skrevet på et språk som kan være utilgjengelig fordi de har en vanskelig medisinsk sjargong. Med språkmodeller som ChatGPT kan pasienter få hjelp til å forstå mer av det som står i de medisinske dokumentene. Dette kan igjen lede til at pasienter blir mer informerte om egen helse og mer involverte i beslutningsprosesser som angår sin helse. Slik kan KI bidra til å styrke pasientenes rolle i egen behandling.

– Og hva med kronikere?

– Jeg tror KI-verktøy når de er integrert med smartklokker og helseapper, kan gi kronikere verdifull innsikt i egen helse og muligheten til å få en mer persontilpasset oppfølging. Disse verktøyene kan for eksempel fange opp avvik som indikerer en forverring eller forbedring av tilstanden, og dermed gi helsepersonell muligheten til å gjøre tilpasninger i behandlingen raskere og mer målrettet. Det åpner rett og slett opp for muligheter for tettere samarbeid mellom pasienten og helsepersonell.

 – Demokratiserende effekt

Ifølge Barua kan KI virkelig utgjøre en forskjell i fremtiden.

– I fremtiden kommer det til å være enda større press på helsevesenet vårt. Vi blir enda flere pasienter, og sykdommene våre blir kanskje enda mer komplekse. Hvordan kan vi da møte de utfordringene gitt at vi ikke får flere inn i disse yrkene, fordi det ikke er nok av folk å ta av? Da tror jeg vi må forsøke noe annet og gjøre noen endringer i vår tilnærming til problemet. Ta for eksempel journalskriving, som tar opp mye av vår tid som helsepersonell. Vi må finne en måte der vi kan utnytte KI-verktøy til å lette dette arbeidet, slik at helsepersonell kan bruke sin verdifulle kompetanse og tid på langt viktigere oppgaver.

– Vi må bare finne ut hvordan vi kan bruke KI-verktøy på en god og tygg måte som ikke skader. Jeg pleier ofte å si at i en perfekt verden hadde ikke KI fått innpass i helsevesenet fordi da hadde alt være løst og alle var fornøyde og det var ingen helsekøer. Timingen på KI-verktøyenes fremvekst er god – vi trenger sårt løsninger som hjelper oss med å håndtere ressurs- og kapasitetsproblemene i helse, sier lege, forfatter og KI-forsker Ishita Barua.

Ordliste

Kunstig intelligens (KI) er informasjonsteknologi som justerer sin egen aktivitet og derfor tilsynelatende fremstår som intelligent. En annen måte i si det på, er at en datamaskin som er i stand til å løse oppgaver uten å få instruksjoner fra et menneske om hvordan den skal gjøre det, har kunstig intelligens. På engelsk kalles KI for artificial intelligence (AI).

ChatGPT er en tekstgenereringsmodell som er utviklet av den nordamerikanske forskningsorganisasjonen OpenAI. En vanlig måte å bruke ChatGPT på, er å gi modellen en setning eller et spørsmål, og la modellen svare. Det går for eksempel også an å bruke modellen til å fullføre en setning eller en tekst, oversette en tekst eller til å generere ny tekst basert på et gitt emne.

Startup brukes ofte om et selskap i sine første faser. En startup er ofte grunnlagt av en eller flere gründere som ønsker å utvikle et produkt eller en tjeneste.

Bing AI images generator er et bildegenereringsprogram fra IT-selskapet Microsoft basert på kunstig intelligens.

Algoritmer beskriver i matematikk og databehandling fullstendig og nøyaktig fremgangsmåter for løsninger av en beregningsoppgave eller en annen oppgave. Algoritmer brukes også mye for å styre resultater av nettsøk ved hjelp av Google og andre søkermotorer, samt visninger på Facebook og andre sosiale medier.

Sensordata er data fra en enhet som oppdager og reagerer på en eller annen type input fra det fysiske miljøet. Disse dataene kan brukes til å gi informasjon til en sluttbruker eller som input til et annet system.

Kilde: Store norske leksikon og Digital Norway

Spørsmål fra ChatGPT

Hud & Helse spurte ChatGPT om spørsmål vi kunne stille Ishita Barua. Vi stilte ett av spørsmålene.

ChatGPT: Hvordan kan helsepersonell og teknologiselskaper samarbeide for å sikre at kunstig intelligens brukes på en trygg og effektiv måte i medisin?

Ishita Barua: – Jeg tror at man må ha mer samarbeid mellom de som sitter og utvikler verktøyene og de som sitter på dataene og domene-ekspertisen i helse. Hvis man tenker at det er tre ingredienser for å lage kunstig intelligens: regnekraft, data og oppgaven (målet). Helsepersonell sitter på forståelsen av hvilken oppgave som må løses, og som samler mye helsedata på vegne av pasientene. De har tilgang til mye pasientdata. Teknologene sitter ofte på regnekraften. For å lage gode KI-modeller, trengs tverrfaglige samarbeid mellom teknologene og helsepersonell, for eksempel mellom startups og det offentlige helsevesenet, som kan samarbeide om å lage de gode løsningene. Og helsevesenet har mye trening i å teste ut nye verktøy og måle effekten av disse før de tas i bruk, slik at man er sikker på at løsningen er trygg å bruke på pasienter. I tillegg må vi bli flinkere på å utvikle KI-verktøy basert på egne data. Slik som det er nå, kjøper vi mest inn KI-hyllevarer i Norge. Vi har god tilgang på helsedata, men vi klarer ikke å utnytte den fordelen til å utvikle KI-verktøy som er godt tilpasset vår egen befolkning. Vi må bli flinkere til å bruke de gode dataene vi har i norsk helsevesen.