Publisert: 12. mai 2020

Foto: iStock

I fremtidens helsevesen er datamaskiner legens nye kollega. Men hvilke vurderinger bør maskinen overta? Og hva kan det føre til når legen ikke skjønner hvordan maskinen har kommet fram til svaret sitt?

Av Truls Petersen i tidsskriftet GENialt

Svenske Statens medicinsk-etiska råd har utgitt en ny rapport om kunstig intelligens i helsevesenet. Selv om ordet artificial intelligence (AI) går helt tilbake til 1955, er det de siste årene at den teknologiske utviklingen har skutt fart. Fra å bruke maskiner til å overta konkrete oppgaver (automatisering), bruker vi nå langt mer avanserte algoritmer. Nå kan systemet lære uten at vi har gitt instruksjon (maskin-læring). Med AI kan vi også etterligne hjernens måte å bearbeide data og treffe beslutninger på, såkalt dyp maskinlæring.

AI kan forbedre bildediagnostikk, klassifisere hudkreft, velge ut embryo i assistert befruktning og lete etter tidlige tegn på sykdom. AI kan også hjelpe legen med å velge behandling. Persontilpasset medisin, som handler om å se på genetiske og andre data sammen, er ikke mulig uten AI.

Men når AI erstatter legen, kan det føre til at pasienter får svakere tillit til legens kompetanse. Noen er kritiske til at AI brukes i verdivurderinger, for eksempel i spørsmål om hvilke pasienter som skal prioriteres. Hvis datagrunnlaget ikke er representativt for befolkningen, kan algoritmen utvikle fordommer mot visse pasientgrupper. At algoritmen ikke er transparent er et generelt problem fordi vi ikke kan vite hvordan maskinen har tenkt. Og så kan AI ta feil – hvem har ansvaret da?

Kilde: Smer 2020:2 Kort om artificiell intelligens i hälso- och sjukvården