Med Machine Learning følger nye etiske problemstillinger
Machine Learning kan være med til at revolutionere måden, vi diagnosticerer og behandler patienter med kræftsygdomme i fremtiden, men algoritmerne skaber samtidig nye etiske udfordringer. Eksempelvis er måden de kæmpestore datamængder bearbejdes en ’black box’, som ikke er synlig for brugerne, hvilket i værste fald kan få den konsekvens, at betydelige fejl kan gå ubemærkede hen.
Der er endnu kun skrabet ganske let i overfladen af potentialer, men allerede nu peger alt i retning af, at Machine Learning (ML) vil få en betydelig rolle i fremtidens sundhedsvæsen som redskab til eksempelvis at støtte sundhedspersonale i at kvalitetssikre og træffe beslutninger om diagnostik og behandling.
Læs mere om visionerne ved ML i artiklen her.
Det store potentiale trækker imidlertid en række etiske dilemmaer med sig. Disse dilemmaer kender Kasper Bendix Johnsen til. Han er leder for Sektion for Videnskabsetisk Evaluering under Enheden for Videnskab og Etik ved Nationalt Center for Etik, og så underviser han blandt andet i emnet på den nye Masteruddannelse i Personlig Medicin, der siden 2021 er blevet udbudt som et samarbejde mellem de fire sundhedsvidenskabelige fakulteter i Danmark og Danmarks Tekniske Universitet.
”Én af de ting, der fylder rigtig meget i den etiske litteratur om Machine Learning er, at vi reelt ikke ved, hvordan algoritmerne sætter data sammen og heller ikke nødvendigvis, hvad de baserer deres beslutninger på. Det er tit en black box, og dermed en kilde til stor diskussion – for hvad kan den manglende transparens føre med sig i praksis? Måske laver algoritmerne fejl, som vi i lang tid ikke opdager,” siger Kasper Bendix Johnsen.
”Derudover er det værd at nævne de bias, man risikerer at inkorporere i sin algoritme. Hvis ikke de data, man har trænet algoritmen på, ligner de patienter, som algoritmen skal bruges på, så rammer algoritmen ikke plet. Der ligger også et mere principielt spørgsmål om ansvar, især i de tilfælde, hvor man lægger afgørende beslutningskraft hos algoritmen i stedet for hos klinikeren. Det har man dog forsøgt at tage højde for i lovgivningen, hvor kravene stiger i takt med niveauet af selvbestemmelse, algoritmen har."
Endelig er datasikkerhed, ifølge Kasper Bendix Johnsen, et meget stort fokuspunkt.
Støv på hjernen
Kasper Bendix Johnsen nævner et eksempel, hvor ’black box’-diskussionen blandt andet blev meget håndgribelig. I et projekt var en algoritme blevet trænet til at analysere billeder af tumorsnit fra et mikroskop på en patologisk afdeling og var over tid blevet meget præcis til at forudsige, hvorvidt vævsprøverne stammede fra tumorvæv eller fra kontrolvæv. Da man så algoritmen efter i sømmene fandt man imidlertid ud af, at dén variabel, der var afgørende for algoritmens prædiktioner, var mængden af støv på vævsprøverne.
”Det giver i og for sig fin mening, at algoritmen har valgt denne variabel som værende bestemmende for outcome. På pågældende afdeling blev kontrolvævet ikke håndteret lige så ofte som tumorvæv, og nåede derfor at samle mere støv. Det er et ekstremt eksempel, men det understreger pointen: Vi ved ikke altid, hvad de selvstyrende algoritmer, navigerer efter, og hvilke variable de vægter, når de skaber mønstre i de enorme datamængder,” siger Kasper Bendix Johnsen.
Spørgsmålet er, om den manglende viden også udgør viden om, hvad der foregår inde i den ’sorte boks’, og om der så er en risiko for den gruppe patienter, algoritmen er tiltænkt at hjælpe?
”Ikke nødvendigvis. Modargumentet vil være, at hvis algoritmen virker efter hensigten, så er det jo i princippet ligegyldigt, hvordan den når frem til et output,” siger Kasper Bendix Johnsen.
ML-teknologien er efterhånden blevet bredt tilgængelig, og der vil, ifølge Kasper Bendix Johnsen, derfor være stor forskel på kompetenceniveauet blandt de forskningsgrupper, der arbejder med at udvikle og implementere algoritmerne. Det er værd at holde sig for øje, konstaterer han.
Lav tærskel for godkendelse
I regulatoriske sammenhænge falder algoritmer under kategorien ’medicinsk udstyr’. I modsætning til ny medicin, skal en ny algoritme i EU ikke formelt godkendes af en officiel myndighed forud for ibrugtagning i de enkelte lande. Algoritmen skal CE-mærkes, og det sker ved et privat firma, som har fået bemyndigelse til at kvalitetsvurdere medicinsk udstyr.
”I 2021 gennemgik en forskergruppe de første 130 algoritmer, der var blevet godkendt i USA. Den gennemgang viste, at de krav, der var stillet til en godkendelse, var ret få. Generelt viste det sig, at det datamateriale, som algoritmerne var udviklet på baggrund af, var forsvindende småt. Ydermere var der kun meget få udviklere, der havde testet algoritmerne i kliniske studier for at benchmarke deres effekt op imod den nuværende praksis,” siger Kasper Bendix Johnsen.
”Der er klart rum til forbedring her! ML kommer efter alt at dømme til at spille en betydende rolle i fremtidens sundhedsvæsen, og derfor er det essentielt, at vi kan stole på algoritmernes kvalitet.”
Danmark har ikke et bemyndiget organ, som kan CE-mærke medicinsk udstyr. Det nærmeste organ er placeret i Tyskland. I slutningen af maj 2021 vedtog Europa-Parlamentet og Europarådet en ny udstyrsforordning for medicinsk udstyr, som især stillede højere krav til CE-mærkning af medicinsk software, herunder algoritmer.
”Før maj 2021 blev software ofte klassificeret som lavrisiko udstyr, hvilket i praksis betød, at den producent, der havde udviklet algoritmen, selv var berettiget til at CE-mærke den uden, at den skulle forbi et bemyndiget organ. Sådan er det ikke længere. I dag klassificeres algoritmer som minimum som klasse 2-udstyr, hvis de direkte eller indirekte er involveret i at stille en diagnose eller vælge behandling. Derfor skal de CE-mærkes af et bemyndiget organ. Dog er der også fastsat regler for at tage medicinsk udstyr i brug uden CE-mærkning, hvis det er udviklet det samme sted, som de skal anvendes efterfølgende,” siger Kasper Bendix Johnsen.
Adskilte datasæt
I dag er det sådan, at forskere, som ønsker at anvende store datamængder til forskning, skal søge om tilladelse hertil hos de relevante instanser, herunder National Videnskabsetisk Komité (NVK). Det skal de af den simple etiske grund, at patienterne ikke selv er tilstede og kan give samtykke til, at deres data bliver brugt til forskning.
Overlæge Carsten Utoft Niemann fra Rigshospitalets hæmatologiske afdeling er én af de forskere, der har søgt NVK om tilladelse til at anvende data. Det har han blandt andet til et forskningsprojekt, der har ført til udviklingen af en ML-algoritme, der sidenhen er blevet integreret i en beta-version i Sundhedsplatformen, Hovedstadens IT-system. Algoritmen har fået navnet CLL-TIM og kan bruges til at identificere patienter med høj risiko for at få alvorlige infektioner.
”Videnskabsetisk komité gav os lov til at bruge data, da komitéen vurderede, at den potentielle gavn af studiet var så stor for denne patientgruppe, at det gav mening at udstede dispensation,” siger Carsten Utoft Niemann.
Datamanager Casper Møller Frederiksen er ansat samme sted som Carsten Utoft Niemann. Han er involveret i administrationen af de data, der blandt andet har været anvendt til at udvikle CLL-TIM.
”Vi har et setup, hvor patienternes CPR-numre er fysisk adskilt fra data. Data opbevares i en cloud-løsning hos Nationalt Genom Center, hvor analyser kan laves i et sikkert miljø. Samarbejdspartnere kan søge om lov til at bruge data til forskning. Og hvis de får grønt lys fra Videnskabsetisk komité og Datatilsynet, så får de en konto på computeren på Nationalt Genom Center, hvorfra de kan tilgå data. På den måde undgår vi, at data svæver rundt alle mulige mere eller mindre beskyttede steder,” siger Casper Møller Frederiksen.
”Når beregninger, der er lavet på data, skal trækkes ud af det lukkede system, så skal de godkendes af enten Carsten eller mig. Det er umuligt at trække informationer ud, som man ikke har rettigheder til – og det er for eksempel heller ikke muligt at trække data på enkeltpersoner ud.”
Genom-data er en udfordring
Ifølge Casper Møller Frederiksen bliver der gjort meget for at værne om patienters datasikkerhed herhjemme, men på visse områder bliver det vanskeligt at værne om de involveredes data privacy, vurderer han. Det gælder især anvendelse af genetiske data.
”I 2013 lagde en tysk forskergruppe en helgenomsekventering på nogle cancerceller ud online frit tilgængeligt. Cancercellerne, som i daglig tale refereres til som HeLa-celler, stammede fra en sort kvinde fra USA, som for længst er gået bort, men hendes børn og børnebørn lever, og de fik jo så pludselig indblik i en masse informationer om deres genetik, som de ikke selv havde bedt om,” siger Casper Møller Frederiksen.
Sagen endte med, at der blev lukket for den frie adgang, og nu skal de forskere, som ønsker at anvende de genetiske data, søge tilladelse hertil. Men eksemplet illustrerer, ifølge Casper Møller Frederiksen, udfordringen ved genetiske data; de involverer mange andre mennesker end lige det menneske, de er hentet fra.
”Hvad betyder det for vores mulighed for at bruge dem til forskning? Og hvilke ricisi er der forbundet ved at sende denne type data til private firmaer såsom MyHeritage? Hvad gør de med de millionvis af data, de ligger inde med, hvis firmaet lukker ned eller bliver opkøbt? Genetiske data er et mudret farvand at navigere i,” siger han.
Data som fælles ressource
NVK kan nægte at give de store dataadgange, hvis komitéen vurderer, at projektet, der ansøges om data til, ikke har den rette kvalitet og udførlige beskrivelser af, hvordan man eksempelvis vil træne sin algoritme, hvilke data man vil bruge samt hvorfor og hvordan man vil begrænse eventuelle bias.
”Machine Learning stiller nye krav til National Videnskabsetisk Komité og andre instanser, der er involveret i at give de store dataadgange. Som det ser ud i dag, gør lovgivningen det vanskeligt at give tilladelse til hypotesegenererende forskningsprojekter, hvilket udvikling af algoritmer jo typisk er. Denne type projekter kan blive opfattet som ’fisketure’ – og som en uetisk måde at anvende data på,” siger Kasper Bendix Johnsen.
”Men lovgivningen er nødt til at tilpasse sig den nye virkelighed, hvor forskning ikke altid handler om at få svar på ét spørgsmål, men i lige så høj grad har til formål at opdage mønstre i data, som man ikke vidste eksisterede. Men dét, at Sophie Løhde specifikt nævnte, at der var ny lovgivning på vej på området i forbindelse med præsentationen af Danske Regioners forskningsstrategi for nylig, peger i retning af, at der er fokus på at skabe nye løsninger.”
Carsten Utoft Niemann bekræfter, at design af kliniske studier til validering af ML for nuværende udgør en udfordring, og at det er et emne, der debatteres flittigt på de videnskabelige kongresser disse år. Blandt andet er det en udfordring, at man i ML-studierne typisk ikke vil randomisere de enkelte patienter, men derimod vil randomisere på afdelingsniveau for at benchmarke effekten af en algoritme op imod den nuværende praksis.
”Jeg er meget bevidst om, at implementering af Machine Learning er associeret med en række etiske udfordringer. Men vi er nødt til at finde en vej i det – for hvis ikke vi tager den nye teknologi til os, så fraskriver vi os muligheden for systematisk at forbedre patienternes forløb,” siger Carsten Utoft Niemann.
”Jeg er af den mening, at sundhedsdata bør opfattes som en fælles ressource, som kan være med til at løfte velfærdssamfundet og specielt sundhedsvæsenet herhjemme. Vi skal selv sagt passe rigtig godt på data og ikke forære dem bort til kommercielle interessenter.”
Ny masteruddannelse i personlig medicin
Masteruddannelsen i personlig medicin blev oprettet i 2021 som et samarbejde mellem de fire sundhedsvidenskabelige fakulteter på Københavns Universitet, Aarhus Universitet, Aalborg Universitet og Syddansk Universitet samt Danmarks Tekniske Universitet. På uddannelsen underviser flere eksperter fra internationalt anerkendte forskningsmiljøer i Danmark.
Formålet med uddannelsen er at klæde kursisterne på til at arbejde med diagnostik, behandling og forskning i personlig medicin samt facilitere et multidisciplinært samarbejde mellem forskellige faggrupper. På uddannelsen undervises blandt andet i:
- Sundhedsdata – Omics, real-world data, databehandling og tolkning af komplekse data
- Evidens for klinisk anvendelse af personlig medicin og dokumentationskrav
- Organisatoriske, etiske, retslige, sociale og patientsikkerhedsmæssige aspekter og implikationer af personlig medicin
- Kommunikation, samarbejde og klinisk beslutningsproces og beslutningsstøtteværktøjer
Læs mere om uddannelsen her.
Patienterne er positiv indstillede – men har forbehold
Der findes for nuværende ikke studier, der har undersøgt, hvordan danske patienter og pårørende forholder sig til anvendelsen af kunstig intelligens i sundhedsvæsenet. En EU-undersøgelse indikerer dog, at danskere generelt er mere positivt indstillede over for brug af kunstig intelligens end borgere i de øvrige EU-lande.
Der findes flere internationale studier, der viser, at patienter generelt set er positivt indstillede over for den nye teknologi. Patienterne er dog ikke entydigt positive. De har en række forbehold. De er blandt andet forbeholdne over for brug af kunstig intelligens i psykiatrien. Og så hersker der en overordnet skepsis i forhold til, om teknologien kommer til at erstatte relationen mellem patient og sundhedspersonale. Jævnfør EU-undersøgelsen kan disse forbehold muligvis ikke oversættes én til én til danske patienters bekymringer.