Introduktion
AI – Inte helt riskfria fördelar
Det finns en stor potential för artificiell intelligens inom sjukvården. Det finns redan medicintekniska produkter som kan leda till säkrare diagnostisering och övervakning av sjukdomar. Förutom säkrare vård kan vården med hjälp av AI effektiviseras och underlätta för sjukvårdspersonalens vardag. Användningen av AI inom sjukvården kan dock medföra lika stora risker som fördelar då vi för in ny teknik i den mest sårbara kontexten för oss människor.
HeAR – Analyserar ljud för att upptäcka sjukdomar
Forskare vid Google har utvecklat ett AI-verktyg som kan användas för att upptäcka och övervaka sjukdomar genom att analysera ljudet av personers hosta och andning. AI-verktyget kallas för HeAR (Health Acoustic Representations) och kan idag upptäcka Covid-19 och Tuberkulos, samt identifiera andra faktorer som till exempel att en person röker. AI-verktygets förutsägelser är dock inte helt säkra. Det är långt ifrån alla förutsägelser som är korrekta i varje enskilt fall. För att bedöma kvalitén på den utdata som HeAR levererar har man använt en skala mellan 0,5 till 1, där 0,5 motsvarar en slumpmässig förutsägelse och 1 en korrekt förutsägelse vid varje gång. HeAR uppnådde värden mellan 0.645 och 0.710 för att upptäcka Covid-19 och för Tuberkulos var resultatet 0.739.
Den underliggande tekniken som HeAR bygger på är en speciell form av maskininlärning som kallas för oövervakad inlärning (self-supervised learning). HeAR matades med 300 miljoner YouTube-klipp av hosta och andra former av människoljud och omvandlade ljuden till visuella representationer (så kallat spektrogram). Forskarna blockerade sedan vissa delar av spektrogrammen varpå AI:n fick lära sig att göra förutsägelser om de saknade delarna.
Tekniken som AI-verktyget HeAR bygger på förväntas få en stor inverkan på olika områden inom sjukvårdssektorn. Det gäller såväl diagnostisering som screening och övervakning av sjukdomar. Det är samma grundteknik som används för att träna stora AI-chattbottar såsom ChatGPT eller Microsoft Copilot. Det speciella med AI-modellen är att den kan användas för många olika typer av uppgifter vilket är en nyhet på området.
Det pågår en hel del forskning på hur AI kan användas inom sjukvården, även i Sverige. Mammografi och patologi är två exempel på områden där AI sägs ha stor potential. Framförallt inom bilddiagnostik har det gjorts stora framsteg de senaste åren. AI har använts för att exempelvis klassificera hudcancer, hitta metastaser vid cancersjukdom, identifiera embryon för provrörsbefruktning, upptäcka livmoderhalscancer, bedöma lungröntgenbilder samt tidigt detektera förändringar i näthinnan. Möjligheterna och förhoppningarna är stora!
Man ska dock komma ihåg att det finns stora skillnader mellan möjligheterna att testa AI-system i sjukvården i exempelvis USA i jämförelse med Sverige. Vi har inte bara nationell lagstiftning som ställer väldigt höga krav på patientsäkerhet (Patientsäkerhetslagen), utan även ett starkt ramverk för integritetsskyddsfrågor (GDPR, Patientdatalagen, m.fl.). Alla medicintekniska produkter behöver dessutom kontrolleras och CE-märkas enligt EU-förordningarna MDR och IVDR.
Enligt Läkemedelsverkets vägledning rörande användning av artificiell intelligens i svensk sjukvård ska alla medicitekniska produkter vara CE-märkta för det avsedda ändamålet. All egentillverkning och modifiering måste ske i enlighet med villkoren i artikel 5 i MDR eller IVDR och den som modifierar en produkt eller använder den utanför tillverkarens definierade användningsområde övertar tillverkaransvaret för produkten. Detta kan utgöra svårigheter när vi pratar om mer avancerad AI – AI som utvecklar sig själv kontinuerligt med olika nivåer av maskininlärningstekniker.
AI-förordningen kommer även att reglera medicintekniska produkter ytterligare. Medicintekniska produkter som innehåller en AI-klassad mjukvara kommer enligt min bedömning troligtvis att falla in under högriskkategorin enligt AI-förordningen. Det i sig innebär en rad skyldigheter i form av riskbedömningar och krav på ett systematiskt och väldokumenterat riskbedömningssystem som löpande utvärderar riskerna under systemets livscykel.
Möjligheten eller omöjligheten att tillgodose integritetsrelaterade rättigheter är risker som behöver tas hänsyn till och vägas mot de fördelar som AI:n kan bidra med i form av vårdkvalitet.
Medan AI-förordningen tar sikte på etiska aspekter, såsom AI:ns förmåga att utveckla diskriminerande algoritmer, tar GDPR sikte på integritetsaspekter som också måste tas i beaktning i ett riskbedömningssystem. Vilken är exempelvis risken att AI:n frångår GDPR:s princip om ändamålsbegränsning eller lagringsminimering? Och hur kan vi kontrollera dessa aspekter när AI-systemets beslutstaganden inte – inte ens av dess tillverkare – kan förstås eller förklaras på en detaljerad nivå? Man pratar ofta om ett Black Box-fenomen, det vill säga där all AI-magi sker.
På tal om Black Box-fenomenet… hur ska man gå till väga för att tillgodose begäranden såsom radering eller tillgång till personuppgifter under behandling i den medicintekniska produkten? Möjligheten eller omöjligheten att tillgodose integritetsrelaterade rättigheter är risker som behöver tas hänsyn till och vägas mot de fördelar som AI:n kan bidra med i form av vårdkvalitet.
Jag vill avrunda den här artikeln med att säga att AI-innovation inom sjukvårdssektorn frodas och det finns många häftiga system under utveckling som kan hjälpa till att effektivisera processer och säkra vårdbedömningar. Mitt medskick är att noggrant utvärdera ett AI-systems risker och konsekvenser innan det implementeras – eller för den delen testas utanför testmiljö med icke-syntetiska data. Missar man nödvändig dokumentation eller bedömningar kan det utsätta vårdtagare för bland annat integritets- och/eller diskrimineringsrisker och potentiellt få stora ekonomiska konsekvenser enligt GDPR och AI-förordningen.