Rapport: AI för bättre hälsa

Rapport om nuläget för en konkurrenskraftig svensk AI inom life science-sektorn

Version: 2020-01-31 (webb/epub)
Licens: CC0 / public domain, exklusive lånade bilder
Författare: Marcus Österberg
Redaktör: Lars Lindsköld

Swelife är ett strategiskt innovationsprogram finansierat av innovationsmyndigheten Vinnova och projektets parter. Denna rapport har tagits fram som en del av SWEPER-projektet inom Swelife.

Vill du hellre ladda ner rapporten?


Sammanfattning

Det pågår mycket inom AI-området, dock är den absoluta merparten en bra bit från att bli använd för att uppnå en bättre hälsa.

”Paradoxen; hur kan det vara så att vi säger att AI är minst lika bra som mänskliga experter, å andra sidan så verkar AI inte ens vara användbar i dagsläget?”

– Claes Lundström under seminariet Hur kan AI gå från vision till verklig patientnytta? (Almedalen 2019)

Förklaringen är att det pågår mycket forskning inom AI men att än så länge är det väldigt lite som går att tillämpa i hälso- och sjukvård, omsorg eller inom läkemedel. Det betyder inte att det inte ser väldigt hoppfullt ut, bara att det är för tidigt att utvärdera det verkliga genomslaget AI-teknik kan tänkas ha. AI är egentligen bara digitalisering, om man nu ska hårdra det.

Områden som kan analyseras visuellt kan rida på den våg av AI vi är inne i. Detta bland annat tack vare AI-tekniken djupinlärning och dess förmågor inom bildklassificering som redan ligger långt framme. Möjligen är det inom det området man ska leta projekt för att minska risken för ett misslyckat initiativ. Samtidigt är risken att man, genom att följa praxis, får mer konkurrens. Hur man väljer hänger också ihop med var ens organisation befinner sig i resan att bli mer digitalt mogen.

Att använda AI för att uppnå bättre hälsa måste ses ur flera parallella tidsperspektiv: gårdagens AI som redan är gjort (och löst), regulatoriska utmaningar som hindrar oss från implementering idag och det som är morgondagens AI om några år ifall vi har en gynnsam utveckling.

  • Gårdagens AI: Bilddiagnostik, optisk teckenläsning (OCR) och robotassisterad kirurgi är exempel på en äldre form av AI som redan är i produktion.
  • Dagens regulatoriska utmaningar och oklarheter: Exempelvis att Patientdatalagen (PDL) inte tillåter en helhetsbild över patienten, att dataskyddsförordningen (GDPR) hindrar profilering och automatiska beslut och att ett medicintekniskt regelverk (MDR) sommaren 2020 ställer hårda krav på medicinteknisk mjukvara, det vill säga AI inom vård och hälsa.
  • Morgondagens AI: Vad kan göras framåt bara dagens bekymmer skingras? Att försöka dra nytta av den nyare AI:n som dagens hajp består av, det vill säga djupinlärning, och bearbeta naturligt språk, till skillnad från de AI-expertsystem som är i produktion redan idag.

Vad som talar för Sverige

Sverige (och delvis våra grannländer) har följande möjligheter:

  • Våra personnummer som garanterar en unik identitet vilket gör att vi kan hålla våra datakällor mer ordnade, samt korsreferera dem.
  • Vår långa tradition av att föra statistik vilket i ett datadrivet samhälle ger oss konkurrensfördelar. Exempel i form av våra kvalitetsregister, att vi har registrerat under mycket lång tid inom hälso- och sjukvården.
  • Sverige uppmärksammas ofta i internationella jämförelser för vårt innovativa sinnelag och att vi har en befolkning som inte räds att använda digital teknik.

Sveriges nackdelar

Till vår nackdel har vi alla regler som skyddar och ibland förbjuder saker där det finns stor acceptans hos befolkningen. Rapporten Förbjuden framtid? är rätt tydlig när det gäller kommuners problem med digitalisering. Samma sak gäller även regioner. Rapporten konstaterar bland annat:

”…att vi idag inte får använda data för att hantera sammansatta komplexa problem med metoder som involverar informationsöverföring över sekretessgränser, eftersom ändamålen utveckling, beslutsstöd och förebyggande arbete inte har några sekretessbrytande regler.

Det finns givetvis många digitaliseringsåtgärder som kan genomföras ändå med stor potential, men de rör i allmänhet endast opersonliga data eller data inom respektive sekretessområde.“

Förbjuden framtid? (Institutet för Framtidsstudier, 2017)

Även landets tre största regioner har gemensamt lyft upp detta, bland annat med detta inlägg i debatten, juni 2019:

”Den tekniska utvecklingen ger stora möjligheter för oss i regionerna att skapa en bättre och mer samordnad vård. Denna utveckling vill vi ta tillvara med införandet av nya vårdinformationssystem. Men för att det ska vara möjligt behöver vi en lagstiftning som hjälper oss att utveckla vården.”

Johnny Magnusson, regionstyrelsens ordförande i VGR, med flera (Dagens samhälle, juni 2019)

Med andra ord missar vi de stora möjligheterna med precisionsmedicin/precisionshälsa, eller hyper-personalisering som det ibland kallas för inom AI, tack vare en lagstiftning som kan tyckas värna individers integritet mer än deras hälsa.

Viktiga åtgärder

För att dra nytta av AI-tekniken har vi ett antal större utmaningar att ta tag i, nämligen:

  • Regelverk. Hur ska GDPR praktiseras? Hur blir det medicintekniska regelverket ett stöd och inte ett hinder? Ska vi ha en nationell eller europeisk molninfrastruktur till stöd, och när kan vi använda utomeuropeiska företags moln?
  • Hållbarhet. Hur blir tillämpningen av AI ansvarsfull och transparent? Hur tillförlitliga är AI-lösningar över tid?
  • Digital mognad. Är arbetstagare och invånare redo att låta sina liv styras av algoritmer de troligen inte kan förstå? Hur sammanför vi domänexperter med dem som kan AI-teknik, eller ska domänexperterna lära sig mer om AI?
  • Forskning Innovation Implementering. Hur ska vi utvärdera AI-forskningens resultat? Fynden måste förädlas genom en innovationsprocess mot stundande implementering. Än så länge är det slagsida åt forskning och väldigt lite implementerat.
  • Delande av data, resurser och resultat. I Sverige behöver vi dela med oss i större utsträckning! Att dela med oss av de resurser vi har, skapa etablerade modeller som kan användas av fler och inom fler områden, samt samarbeta om data.

Innehållsförteckning

Introduktion

Artificiell intelligens (AI) är en förutsättning för framtidens hälso- och sjukvård. Inte minst inom prevention och tidig upptäckt är AI en framgångsfaktor. Genom att vi använder hälsodata strategiskt och systematiskt kan vi hålla oss friska längre, samt upptäcka och åtgärda risker tidigare. Allt detta kan göra hälsa, vård och omsorg mer effektiv och förhoppningsvis även billigare.

Mängden data om varje individs hälsostatus växer snabbt. Det kan vara den information som patienten ger vid ett besök inom vården – exempelvis all data ett vanligt blodprov kan ge – men också data som individen själv producerar, exempelvis genom hälsoappar och olika sensorer. Alla data om individen som har betydelse för välbefinnandet kan kallas för systematiska hälsodata.

Rätt använd skulle de systematiska hälsodata som finns kunna ge en hälso- och sjukvård som är specialanpassad för var och en av oss. Tyvärr ligger sjukvårdens och de regulatoriska myndigheternas arbete efter, vilket gör att vi inte kan använda våra systematiska hälsodata fullt ut. Detta är något Swelife arbetat med genom SWEPER-projektet, där vi bland annat sett över legala, regulatoriska och semantiska hinder på vägen till en bättre användning av data – och på sikt en bättre folkhälsa och en stark life science-sektor i Sverige.

Det är bråttom nu. Sverige kan ha en konkurrensfördel om vi snabbt rätar ut de frågetecken som finns runt AI-teknik och systematiska hälsodata kopplat till individens integritet och etiska frågeställningar till användandet av data ur olika informationsperspektiv. Konkurrensfördelen kan omsättas till innovativa företag, nya arbetstillfällen, en bättre hälso- och sjukvård i Sverige, med mera. En siffra på den ekonomiska potentialen bakom AI, bara inom svensk offentlig förvaltning, är 140 miljarder kronor per år. Detta enligt Myndigheten för digital förvaltnings delrapport Främja den offentliga förvaltningens förmåga att använda AI (2020).

Vi har stora fördelar jämfört med många andra marknader, exempelvis personnummer och en hälso- och sjukvård tillgänglig för alla. Men för att få full utväxling av AI-satsningar framöver måste vi investera i strukturförändringar. Förändringarna är kanske inte lika fantasieggande som schackspelande datorer, eller diagnosställande av intelligenta maskiner, men de är nödvändiga för att på allvar kunna utnyttja den möjlighet som artificiell intelligens erbjuder. Vi måste dessutom tänka globalt från början och skapa en internationell koppling, där vi arbetar enligt internationella standarder, kodverk och regelverk som gör att vi kan dela data och resultat över gränserna. Samt att denna data blir läsbar och förstådd även av maskiner.

Det är viktigt att Sverige inte bara blir en leverantör av hälsodata, utan att vi bygger upp och behåller kompetensen att förädla data. Ett sätt kan vara att vi parar ihop vår hälsodata med organisationer och företag som kan bidra med innovation. På så sätt skapas värde för både individerna och samhället i stort.

Om rapporten

Swelife vill stärka sitt strategiska arbete kring AI genom ett antal olika satsningar. Bland annat en nulägesanalys med fokus på AI ur ett hälsoperspektiv, inklusive en gapanalys inför kommande prioriteringar och satsningar.

Detta underlag kommer att användas inom Swelife och bidra till de projekt som stöttas. Men denna rapport är allmänt tillgänglig och kan därmed utgöra underlag för diskussioner kring strategiska satsningar inom AI-området med fokus på hälsa, som övriga organisationer och institutioner kan bygga vidare på. Rapporten har en tillåtande licens för återanvändning, närmare bestämt CC0, med undantag för de bilder vi lånat in och inte äger upphovsrätten till.

Febril aktivitet på AI-området, men…

Det råder stor aktivitet internationellt inom AI för att uppnå bättre hälsa. Men en stor del av aktiviteten är en bra bit bort från att vara implementerad. Ett sätt att mäta detta är genom tekniska måttstockar och då finner vi mycket i den lägre nivån av TRL-skalan (Technology Readiness Level). Det innebär en lägre mognadsgrad och högre teknologisk risk.

Om man däremot ser initiativen utifrån ett innovationsperspektiv är de nya, antagligen nyttiga men ännu inte nyttiggjorda. En koreansk forskningsrapport inventerade hoppfulla studier inom radiologi och fann att inte ens en bråkdel var validerade mot något som liknar den kliniska verkligheten. Detta diskuteras mer utförligt senare i denna rapport.

Parallellt med dagens förhoppning på AI finns det en äldre generation av AI-system (expertsystem) som åtminstone inom sjukvården är implementerad sedan länge.

Många gör saker inom AI för bättre hälsa. Men det som berättas om, nyheter som sprids över världen, skiljer sig från det som faktiskt förändrar människors hälsa på riktigt. Massor med inspirerande och uppseendeväckande fynd och lösningar är lätta att hitta. De saker som hittar hela vägen fram till att göra nytta för människor, som faktiskt implementerats, är det tystare om. Inte för att det saknas sådana exempel, utan snarare för att AI verkar ses som något som hör framtiden till och inte något man kan granska här och nu. Eller som John McCarthy, en av pionjärerna inom AI-området, uttryckte den så kallade AI-effekten:

”As soon as it works, no one calls it AI any more.”

– John McCarthy

Det saknas inte utmaningar. De är av olika sort, bland annat tillgång till lämpliga datakällor och regelverk som amerikanska HIPAA, EU:s dataskyddsförordning GDPR samt det medicintekniska regelverket som klassar mjukvara som medicintekniska produkter. De sistnämnda belyser utmaningen med transparens, tillförlitlighet och etik för att lyckas uppnå en god hälsa oavsett ursprung eller individuella egenskaper.

Vissa spår att en så kallad AI-vinter är nära förestående. En period av produktivitet där hajpen är borta, vilket är så som hajpkurvor förutspår utvecklingen över tid för alla innovativa tekniker. Samtidigt har nog inte särskilt stor del av de som till vardags jobbar med omvårdnad, hälsa eller sjukvård riktigt tagit till sig vad AI kan bidra med. Förhoppningsvis kommer dessa domänexperter tillsammans med kunniga inom AI-tekniker att tillsammans börja omsätta idéerna till livskraftiga lösningar.

Definition av life science och AI för denna rapport

Om man är väldigt inkluderande är life science vetenskapen om allt som är levande. Men det vore inte så användbart i detta sammanhang, även fast användningen av AI-teknik inom renskötsel och livsmedelsindustrin förstås har påverkan på människor. Dessa saker utelämnas i denna rapport.

Life science har en relativt lång lista med förgreningar som inte riktigt landar i denna rapports intresse. Bland annat zoologi och botanik. Några som definierar life science på ett sätt som passar denna rapport är stiftelsen Forska!Sverige:

”[…] i första hand medicinsk forskning och dess tillämpningar med syfte att skapa medicinska framsteg, industriell utveckling och bättre hälsa.”

Dessutom har Swelife ett ursprung inom de vanliga folksjukdomarna, för människor. Så denna rapport exkluderar:

  • Boskap och livsmedel.
  • Generell biologi, zoologi, botanik, med mera.
  • Alternativmedicin/komplementärmedicin.

Det som inkluderas är åtminstone följande saker:

  • Genetik och andra *omics.
  • Läkemedel, dess forskning och utveckling.
  • Medicinteknik, särskilt mjukvara som kan vara avancerade beslutsstöd, bilddiagnostik, med mera.
  • Omsorg, oavsett om den bedrivs kommunalt eller av annan aktör.
  • Primär- och slutenvård, som bekostas och ofta utförs av regioner och kommuner.
  • Nationell högspecialiserad vård.
  • Egenvård. Alltså allt det som stödjer de som jobbar med sin egen eller andras hälsa.
  • Andra saker som är individers hälsa till gagn.

När det gäller denna rapport avgränsas life science till att avse det som främjar bättre hälsa hos människor. Hur man håller människor friska, hanterar deras riskfaktorer och försöker bota sjukdom. Det kan handla om egenvård, läkemedel, hälsovård, sjukvård och omsorg exempelvis. Med andra ord finns en mängd olika aktörer som påverkar hur AI kan bidra till en bättre hälsa.

Definition av AI

Definitioner av AI har oftast har en koppling till imitation av mänsklig intelligens, en människas förmågor, drivkrafter eller sinnen.

AI har dessvärre inte en enda allmänt accepterad definition. Det kanske delvis kommer sig av den hajp vi är inne i. En rapport som definierar AI är Socialstyrelsens Digitala vårdtjänster och artificiell intelligens i hälso- och sjukvården (oktober 2019). För att inkluderas ska AI-systemet relativt autonomt utföra en uppgift utifrån den information den fått, och/eller att systemet med tiden lär sig och förbättrar sin förmåga att utföra sin uppgift (Sida 45, Digitala vårdtjänster och artificiell intelligens i hälso- och sjukvården).

Det vore inte meningsfullt att anamma den mest inkluderande tolkningen av AI som begrepp, men för att du som läsare av rapporten ska förstå var baslinjen går kring AI i just denna skrivelse är det lika bra att vara tydlig. Det som exkluderas är saker som andra med utredningsuppdrag inom AI ibland har valt att ha med, exempelvis:

Det som inkluderas är:

  • Avancerade analysverktyg som använder koncept från maskininlärning eller annan AI-teknik.
  • Expertsystem, och annan form av GOFAI (Good Old-Fashioned AI), från 1900-talet.
  • Maskininlärning, djupinlärning och liknande.
  • Naturligt språk, alltså människors språk (NLP – Natural Language Processing).
  • Datorseende (computer vision, eller den form av visuell diagnostik som görs inom radiologin, patologin, med flera inom life science).
  • Andra tekniker som robotik, medicinskt luktsinne, medicinska digitala tvillingar, med mera.

För att göra det enklare så benämns de inkluderade sakerna som “AI-tekniker” i denna rapport. När AI i kortform nämns avses samma sak.

Till skillnad från (en tolkad version av) Socialstyrelsens definition ställs möjligen lägre krav på hur pass autonom, självlärande eller självförbättrande en AI behöver vara. Relativt sofistikerade expertsystem i vården inkluderas. Dock är det inte helt enkelt att få tillräckligt med detaljer för att verkligen veta vilka komponenter som använts i respektive lösning.

Exakt vad som avses med autonom, självlärande eller självförbättrande är en separat diskussion. Men i all korthet, dagens AI är:

  • Autonom inom väldigt begränsade ramar.
  • Självlärande avseende att maskininlärningsalgoritmerna har en förmåga att lösa en uppgift genom att utvinna information på ett (mer eller mindre) autonomt sätt. Resultatet kan användas till exempel för att ge svar på specifika frågor.
  • Självförbättrande gäller vissa AI-system. I den mån de förfinar sina algoritmer baserat på nya data den utsätts för, så kallad online learning. Vilket inom förstärkt inlärning är själva poängen då AI:n ska utforska olika möjliga lösningar.

Man ska inte förvänta sig att en AI som framgångsrikt klassificerar hudåkommor börjar excellera inom psykiatrin på egen hand. Då kommer man troligen vänta förgäves. Dessutom är självförbättrandet en process man behöver ha koll på vilket gör det enklare att bara släppa förbättringar stötvis när man kollat att resultatet faktiskt var en förbättring.

”Healthcare is an information industry that continues to think it is a biological industry”

– Laurence McMahon (2016), enligt boken Artificial Intelligence in Medicine, ISBN: 9783030216429

Användningsområden för AI

Det finns inte en självklar samsyn kring vilka deltekniker som ryms inom AI. Vad en utredning betraktar som AI kan exkluderas av en annan. Dessvärre gör olikheter det svårt att fullt ut dra nytta av varandras arbete.

Om man grupperar AI-teknikerna efter hur de kan liknas vid mänsklig intelligens får man fram bland annat:

  • Förmågan att lära sig genom att beakta exempel (maskininlärning).
  • Se, höra och tolka visuella- eller ljudintryck (datorseende, artificiell hörsel).
  • Optimering och förbättring (artificiell nyfikenhet och förstärkt inlärning).
  • Konsten att röra sig och utföra saker i den fysiska världen (robotik, proteser).
  • Kommunicera, tolka och interagera med omvärlden (naturligt språk – NLP, ansiktsigenkänning, tolka kroppsuttryck).
  • Förutsäga framtid och planera scenariobaserat (autonoma multiagentsystem).

Men begreppet intelligens är inte heller det så självklart som man först kan tro. Peter Gärdenfors, professor i kognitionsvetenskap i Lund, om intelligens och att mäta intelligens hos icke-mänskliga varelser, som djur:

”– Det enda svaret är att intelligens inte är ett generellt begrepp. I stället kan vi tala om problemlösningsförmåga. Vi människor klarar av många praktiska problem; vi är väldigt flexibla, har lyckats befolka jordens alla hörn. För mig är det ett tecken på intelligens. Å andra sidan har alla djur sina sätt att lösa problem. Titta bara på orangutanger, som är fantastiska klättrare, eller fladdermössen med sin spatiala förmåga – de har bägge specialförmågor som vi inte har en chans att uppnå. Så vad skulle det betyda att en robot är intelligent?

Kan vi skapa intelligens? (Forskning och Framsteg, 2015)

En förmåga att lösa mer eller mindre väldefinierade problem och söka svar på specifika frågor är i viss utsträckning precis vad maskiner gör. Sen kan den försöka vinna i ett spel med orimligt många kombinationer av spelpjäser. Eller klassificera om något på en bild är ett benbrott.

Men det finns förstås kritiker av en inkluderande syn på begreppet intelligens när det gäller maskiner. John Searle, professor i filosofi vid Berkeley, anser att:

”– En maskin kan inte vara intelligent, eftersom intelligens förutsätter medvetande. Och en dator är inte medveten. Siri, och alla andra datorer, förstår inte meningen i det du säger och inte heller begriper den sina egna svar. En dator manipulerar bara symboler utan att förstå innebörden av dem.”

Kan vi skapa intelligens? (Forskning och Framsteg, 2015)

Denna rapport nöjer sig dock med att AI-teknikerna är kapabla att lösa problem, och besvara frågor, som inte är helt uppenbara. Att AI-tekniken lyckas förstärka eller komplettera den intelligens som användaren har.

Figur 1: Sju gemensamma drag för att gruppera AI (Cognilytica, april 2019)

Ett annat sätt att dela upp AI har föreslagits av analysföretaget Cognilytica. Ett intressant sätt att gruppera användningen av AI-tekniker som verkar fungera rätt bra, trots att vissa lösningar faller inom fler grupper än en:

  1. Hyperpersonalisering – vilket inom life science praktiskt taget är liktydigt med precision medicine. Att det finns så mycket information att man kan gå från gruppnivå till anpassning för individer, kanske på sikt “precision health”, som utgår ifrån individens förutsättningar att bibehålla en god hälsa.
  2. Autonoma system – som de relativt självgående drönarna som testats för transporter av bland annat prover. Det har testats av glesbygdscentrum i Region Västerbotten och på Sahlgrenska Universitetssjukhuset i Göteborg. Begreppet “autonom” är dock komplicerat då det finns många nivåer av hur pass självständiga dessa ting/system är.
  3. Prediktion och beslutsstöd – i detta fall som exempelvis medicinska beslutsstöd, prediktion av den tid en patient behöver vård, eller risk för något. Sedan finns det en uppsjö med lösningar som vänder sig direkt till individer, snarare än genom en vårdgivare.
  4. Konversation och interaktion med människor – som tandvården i Västerbottens receptionsbot Aida – men du har garanterat hört talas om chatbotar i andra sammanhang eller pratat med ett sådant system över telefon. All form av interaktion räknas. Som text-till-tal, tal-till-text, olika sorters språkliga översättningar och mycket mer.
  5. Upptäcka mönster och avvikelser – här kommer analys av gener in och medicinska digitala tvillingar för att jämföra individer med varandra, vilket kan vara fantastiskt för ovanliga diagnoser bland annat. Men den kanske största gruppen rent generellt här är allt det maskininlärning kan göra på olika datamängder. Som olika former av gruppering, tidsserieanalyser, med mera.
  6. Igenkänning – som i att för en synsvag person identifiera vilka piller som ska ätas tillsammans med vilken måltid. I generella sammanhang förmågan att identifiera och beskriva saker vilket kan vara olika sorters hjälpmedel. Stor överlappning med grupp 4.
  7. Målsökande system – i ett vårdkontext kan det handla om att motivera en individ att ta sina mediciner eller att genomföra fysisk aktivitet – men generellt är detta att lyckas påverka eller styra ett system, exempelvis att vinna ett parti schack.

Det finns ett antal sätt att gruppera vad som ingår i AI som begrepp. Ofta nämns ”AI och maskininlärning” som en fras. Nog för det ofta snarare är maskininlärning man avser, ibland än mer specifikt djupinlärning, men det finns exempel på AI, som vi redan gått igenom, där maskininlärning inte alls behövs. Som expertsystemen från en tidigare våg av AI-teknik.

Definitionen av maskininlärning är “förmågan att lära sig utan att uttryckligen ha blivit programmerad” vilket stämmer bra med det mesta av den AI som talas om sedan 2012 då djupinlärning påbörjade sitt genombrott. Djupinlärning är ett delområde av maskininlärning och drar nytta av tekniken artificiella neuronnät (ANN). ANN försöker efterlikna funktionen hos en hjärna.

Del 1: Nationell inventering av vad AI för life science innebär

Metod för insamling av intryck

Inventeringen har pågått under stora delar av 2019. För att inte fastna i en enskild geografi har det gjorts nedslag från norr till söder, men vi har också aktivt arbetat för att nå olika sorters människor, med olika roller. Det har varit direktörer, akademiker, forskare, IT-projektledare, läkare, utvecklare, och säljare, bland annat. De organisationer de jobbat för har varit exempelvis regioner, i små medicintekniska startups, science parks, innovationskontor och några i de större It-företagen för att nämna några exempel.

Städer som besökts är Umeå som följdes av mellanlandningar i Skövde, Stockholm, för att stanna till i Malmö och Lund, samt Linköping i oktober. Drygt trettio personer har intervjuats på plats under resorna och några ytterligare per telefon.

Intervjuerna har kompletterats med enkäter på nätet, där man har kunnat intervjua sig själv genom att fylla i ett formulär. Viss dialog har också förts med spetspatienter (en särskilt kunnig individ med stor insikt och expertis kring sin egen kroniska sjukdom) och företrädare för egenvård, funktionsnedsättningar, med mera.

Ett flertal av de som intervjuats, eller fyllt i enkäten på webben, beskriver sig som noviser på AI-området, men att de närmar sig AI. Antingen genom sin expertis inom hälsa, som affärsutvecklare eller att man sedan tidigare befunnit sig i ett närliggande tekniskt område.

Respondenterna är ganska jämnt fördelade mellan könen och flera har utländsk bakgrund.

Frågebatteri

Formuleringar av frågorna har diskuterats fram via Twitter och ett internt socialt medie för Västra Götalandsregionen. Följande standardfrågor som har varit grunden i samtalen, dock var inte alla meningsfulla i varje samtal:

  • Berätta lite om vilka AI-projekt ni har eller de du känner till?
  • Var kom inspirationen från?
  • Vilka AI-tekniker är det ni använt?
  • Vad är det för uppgifter AI:n försöker lösa?
  • Vad har varit eller är utmaningarna tycker du?
  • Finns det något stöd du tycker saknas för att det skulle bli enklare?
  • Är det några kompetenser ni saknat?
  • Vilken data tänker ni använda för er AI-teknik?
  • Vilka drivkrafter har ni? (Personella, egeninitierade, uppdragsgivare, effektivitet, ökad precision etc)
  • Vilka i samhället representerar datan och hur tänker ni säkerställa att AI-tekniken inte gör en samhällsgrupp starkare än andra? Om det är poängen, varför?
  • Hur kommer AI-tekniken stärka demokratin i samhället?
  • Vilka effekter har ni uppnått, mätetalen både före och efter?
  • Någon annan reflektion?

Samt om tid funnits:

  • Vad ska respektive AI-applikation ersätta? Jag tänker (förenklat) en ny lösning in, en gammal lösning ut, eller?
  • Hur ska affärsmodellen fungera när ni (förmodat) kommer att arbeta mer datadrivet?
  • Ser ni över vilka etiska problem som kan dyka upp resultaten?
  • Kan ni tänka er dela med er av data, resultat, fynd open source-mässigt?
  • Har ni övervägt miljöaspekten av hur ni effektiviserar era körningar och hos vem eller vilken leverantör ni använder?

Det har som sagt också funnits möjlighet att intervjua sig själv via ett formulär på nätet.

1. Berätta kort om vilka AI-projekt ni har eller de du känner till?

De projekt som berättats om, knappt hundra till antalet, är till överlägset största del antingen maskininlärning för någon form av beslutsstöd, eller datorseende för diagnostik. Det finns några som tar hjälp av naturligt språk, vilket inte enbart är chatbotar för att samla in patientberättelser utan också diagnostisering genom analys av kommunikationens innehåll.

Spridningen av hur långt projekten kommit är förstås stor. Vissa finns under etablerade arenor som AIDA i Linköping, andra är startups. En del bygger vidare på beprövad tillämpning av AI-tekniker medan andra har ett mer utforskande synsätt.

Ansatserna täcker även de hela spannet. Från viljan att optimera bemanningen av personal på sjukhus genom att få en prognos över hur länge patienten kan väntas bli kvar, till att råda bot på stora problem som att vi har alldeles för få specialister inom något område.

Ibland är användaren av AI:n en patient, ibland en person, men det kan också handla om någon form av kvalitetsarbete i efterhand.

2. Var kom inspirationen från?

Det finns en del kulturella influenser till var man fått inspiration från. Att Terminator-filmerna skulle komma på tal var en lågoddsare, men även dokumentärfilmer om teknik har nämnts.

Det vanligaste svaret var dock att man observerat problem eller utmaningar i vardagen och börjat bli lösningsorienterad. Vardagen är allt från den vårdmottagning man jobbar på, det specialistområde man verkar inom eller den grupp personer vars hälsa man fokuserar på.

Exempel på specifika grupper man vänder sig till är att hörselskadade, döva och dövblinda ska kunna ha samtal utan mänsklig mellanhand.

Att Sverige redan har ont om vissa specialister, och kommer ha ont om personal, kom på tal några gånger. En person uttryckte det ungefär som ”här i Norrland har vi redan de utmaningarna andra i Sverige oroar er över snart ska komma”. Vilket lett dem till att leta innovativa lösningar på personalbrist eller att låta personalen slippa göra saker som en maskin kan ta över.

3. Vilka AI-tekniker är det ni använt?

Att diskutera vilka tekniker man använt blir förstås lite komplicerat när inte alla är överens om en entydig definition av AI. Inför varje intervju har det gjorts tydligt att ”AI” under samtalet tolkas väldigt öppet och inkluderande.

Det som nämnts är bayesiska nätverk (en modell för att beräkna sannolikhet), överlevnadsmodeller, artificiella neurala nätverk genom djupinlärning, naturligt språk, datorseende och maskininlärning förstås.

Frånvarande är svenska exempel på socialrobotik. Men ingen av de som intervjuats tar upp exempel som gränsar till automatisering med hjälp av mjukvarurobotar som RPA, vilket är lite förvånande då det ibland inkluderas i AI som begrepp.

4. Vad är det för uppgifter eller problem AI:n försöker lösa?

Ofta handlar projekten om att avlasta en person i hälsovården så de kan fokusera på uppgifter där det verkligen behövs en människa. Exempelvis att räkna ut sannolikhet för överlevnad är nog inte den syssla som får folk att söka sig till ett vårdyrke, det kan en maskin göra åt människan.

De flesta initiativen går ut på att hjälpa till med att ta ett beslut baserat på data. Det gäller både generell maskininlärning och datorseende.

Men också att ta bort mellanhänder av integritetsskäl: tolkar i vissa situationer, designa om sin receptionsprocess på mottagningen eller kunna ge enklare svar på frågor dygnet runt.

5. Vad har varit eller är utmaningarna tycker du?

Kanske lite förvånande är att ingen nämner att de saknat beräkningskraft eller teknisk infrastruktur. Snarare talas det om svårigheter relaterat till data, som att man har för lite eller för låg kvalitet på det man har. Eller att GDPR och det medicintekniska regelverket för mjukvara varit svårt.

Även att identifiera rätt behov hos slutanvändarna nämns, samt att få projekten implementerade. Dessutom att det ibland är för lite kunskap och tillit.

6. Finns det något stöd du tycker saknas för att det skulle bli enklare?

Ett tema var att ”ge oss pengar och tid” så blir det bra utkomster. Också vanligt att se bekymmer med den IT-infrastruktur som finns, att den försvårar implementering, samt att stödpersoner inom IT-sektorn hellre agerar hinder än bidrar med lösningar eller kommer med förslag.

På temat med data efterlyser vissa annoterade datamängder, vilket får tolkas som att någon annan redan gjort jobbet med annotering på den typ av data de behöver.

Någon efterlyser nationellt beslut att vi måste jobba med AI.

7. Är det några kompetenser ni saknat?

Någon ville ha hjälp med tjänstedesign men inte lyckats hitta någon. Någon annan tyckte det var lite väl dyrt att upphandla konsulter och ansåg att man borde ha egen AI-kompetens inom organisationen, eller ännu mer egen kompetens än man redan har.

I de små organisationerna var det vanligare att man saknade tillräckligt mycket AI-kompetens, men det kan hänga ihop med storleken.

8. Vilken data tänker ni använda för er AI-teknik?

Det finns lite olika grupperingar kring vilka data man har intresse för. När det gäller maskininlärning är det kvalitetsregister, lokala register och journaler som ofta nämns. Alla dessa data är inte nödvändigtvis personuppgifter i. Bland annat nämns logistikdata om besök i vården eller information om hur mycket vård som produceras nedbrutet på detaljerad nivå.

För datorseende är det ofta diagnostik av labprover, radiologi, patologi eller hudåkommor det handlar om.

I fråga om naturligt språkteknik är det manualer, fråga-svar-texter och öppna data som nämns.

9. Vilka drivkrafter har ni? (Personella, egeninitierade, uppdragsgivare, effektivitet, ökad precision etc)

Svaren på denna fråga blev gärna känslomässiga och med tydlig empati. Att man har stor förståelse för patienters frustration och vill få till en förändring till det bättre. Eller att stärka funktionsnedsattas möjligheter att delta i samhället.

Ett fokus låg på faktiska behov, eliminera nonsens-arbete, minska antalet uteblivna besök, förbättra tillgängligheten till hälsovård, exempelvis genom att i praktiken ha öppet dygnet runt.

10. Vilka i samhället representerar datakällan och hur tänker ni säkerställa att AI-tekniken inte missgynnar någon grupp i samhället?

Huruvida man tänkt säkerställa att tekniken inte missgynnar någon grupp är bevisligen en obekväm fråga att svara på. Det ligger väl i sakens natur. Men många har i alla fall någon form av tänk för hur man kan få in återkoppling, bland annat genom att ha budgeterat för att involvera spetspatienter, patienter med normbrytande perspektiv och etnisk mångfald.

I vissa fall är frågan inte fullt så aktuell enligt den svarande. Exempelvis på grund av att lösningen enbart handlar om en delgrupp såsom de med en viss kronisk diagnos, ibland hade man balans genom att ha med både friska frivilliga och sjuka i sin insamlade data.

Någon svarade också rakt ut att man inte riktigt kunde svara på frågan eller att man gärna ville lägga mer energi på det om möjlighet fanns.

11. Generellt, kommer AI-tekniken stärka demokratin i samhället?

En minoritet trodde att AI-teknik skulle stärka demokratin. De flesta som svarade nekande, eller med tveksamhet, svarade dock väldigt kort på frågan. Ibland fanns förtröstan att på sikt kommer det att vara positivt. Exempelvis att det är väldigt få och priviligierade institutioner och personer som kontrollerar mycket av den data som är viktig för AI.

En person uttrycker det så här illavarslande:

”För att göra saker värre, så är det främst länder som har ett tveksamt förhållningsätt till integritet och datasäkerhet som är ledande i ML/AI-racet. Om något så kommer AI att (på kort sikt) leda till mindre demokrati på grund av övervakning där ansiktsigenkänning kommer att leda till att färre vågar protestera med rädsla för repressalier. Samma med yttrandefrihet då vi har spårning + ML som kan pussla ihop information och identifiera personer baserat på sociala medier och appar. På lång sikt, när tekniken är i allmänhetens händer och våra barnbarn (om 30 år) kan ställa motkrav för sin data samt kan styra/utveckla AI, då kan vi se en stärkt demokrati och transparens tack vare AI.”

Ovanstående är nog en spaning som inte primärt fokuserar på Sverige, även fast vi i vissa fall varit de som föreslår mer intrång i privatlivet än andra länder i EU. Sverige har trots allt fällts av EU-domstolen för datalagringslagen. Det har varit en följetong om att den svenska regeringen ansåg att den svenska lagen var korrekt trots att EU-domstolen förklarat direktivet ogiltigt och oförenligt med EU-rätten. Sverige hade en ledande position i framtagandet av EU-direktivet som sedan blev svensk lag.

Några av de positiva poängterade att AI, precis som annan teknik, kan fungera inkluderande. Att det stärker individers möjlighet att delta i samhället.

12. Vilka effekter har ni uppnått, mätetalen både före och efter?

De flesta svarade att de ännu inte kommit så långt att de kunnat utvärdera, att arbetet mer varit likt en förstudie, att man ännu inte kommit ut på marknaden med sin lösning, eller liknande.

De som hade tydligast svar på frågan hade en mer akademisk vinkel på arbetet, som att de släppt en artikel med sitt fynd. Dessa personers leverans är mer i form av kunskap än något som implementeras inom kort.

Många hade dock klart för sig vilka mätetal som var av intresse för att mäta effekt: sjukskrivningslängd, nöjdhet hos läkare, mått av produktivitet, med mera.

13. Vad ska AI-tillämpningen ersätta? Är det en gammal lösning ut som ska ersättas av en ny?

Det är inte alltid så enkelt att ”systemet” som består av AI ersätter ett annat system. Snarare en form av komplettering. Som att stödja läkaren i hens bedömning av högriskpatienter, hjälp till med diagnostisering, förskrivning av läkemedel, verksamhetens interna planering och hjälp att fatta beslut i största allmänhet.

En sak där det inte kompletterar personal är det fåtal omnämnda fallen där AI:n har potential att helt ersätta det manuella arbetet, eller i sammanhang där det för patienten kan vara önskvärt att inte ha en människa som extra mellanhand.

14. Hur ska affärsmodellen se ut när ni nu (förmodat) kommer att arbeta mer datadrivet?

Här är det värt att påminna om bredden av människor som intervjuats. De på golvet i en sjukhusorganisation och folk längre ifrån vårdverkligheten tänker kanske olika kring begreppet ”affärsmodell”. Samma sak med akademiker kontra privata startups kontra offentlig sektor.

Med det sagt är det väldigt få som haft ett särskilt uttömmande eller bra svar på denna fråga. Tydligast har startups varit och de företag som redan är verksamma i hälsobranschen. Startups har ibland gått igenom en snabbversion av rubrikerna från en till synes inövad Business Model Canvas. De mer etablerade företagen har talat i liknande termer och ibland nämnt intresse för avknoppning om försöket lyckas kommersiellt.

15. Ser ni över vilka etiska problem som kan dyka upp i resultat?

Ännu en laddad fråga. Många svarar att man jobbat med detta. Ibland kommer exempel på åtgärder som att data anonymiserats, att man kommer följa upp det kontinuerligt eller att man har en styrning som gör att man inte kommer hamna i problem trots att användarna bidrar med data.

16. Kommer ni dela med er av data, resultat och andra fynd open source-mässigt?

Alla har inte fått denna fråga formulerad på exakt samma sätt. Dem som intervjuats på plats har ibland fått frågan om man kommer släppa resultatet fritt för andra att använda. Exakt vad det innebär är en osäkerhet.

Vissa tänker släppa det i form av olika sorters publikationer, andra släpper det fullständigt fritt ”eftersom den utvecklas av statliga aktörer”. Några få svarar nej, men att fynd och resultat är något man tänkt sprida. Hanterar man personuppgifter är det ju ett utmärkt svar.

17. Har ni övervägt miljö- eller hållbarhetsaspekten för att lära upp en AI?

Svaren på denna fråga tycks landa i två olika grupper. De som tänker på själva inlärningen, det kom nämligen ut en artikel under året som berättade om den ibland enorma energiåtgången, men också de som svarade mer om miljö och hållbarhet lite mer allmänt.

Det var egentligen bara tre som svarade att de övervägt detta, en av dem preciserade att de valt en befintlig AI-modell istället för att träna upp en ny, en annan att deras neurala nätverk tar en minut att träna upp med nya data.

18. Någon annan reflektion?

Mycket av reflektioner och frågeställningar har handlat om datakällor och möjligheter till samarbete.

Gällande datakällor efterfrågas tillgång till annoterade datakällor, och inte enbart med hälsovårdsinformation, och att det behöver vara lättare att få tag på. Att det behövs en katalog över användbara datakällor, och är det vad som avses med datafabrik på AI Innovation of Sweden?

Frågor om hur vi kan jobba mer tillsammans i Sverige, att dela på resurser vi alla har ont om. Exempel på saknade resurser att samarbeta om nämns juridik. Ofta har frågan kommit ifall jag som intervjuare har tips på vem de kan vända sig till. Inte sällan med svar om affärsutvecklare på våra svenska science parks som ingång.

Inventering av AI-projekt i Sverige

Problematisering av inventeringen

Det finns ett flertal problem kring att inventera AI och allt som klumpas samman under AI som teknik. Den största är att det saknas en etablerad definition av AI, en som i singular, det finns nämligen flera.

De initiativ som är lätta att hitta idag är nästan uteslutande inom området maskininlärning eller naturlig språkteknik tillämpad som i form av chatbotar. Lite mer sällan omnämns datorseende-tekniker som bilddiagnostik som AI. Detsamma med robotik, specifikt socialrobotik, eller artificiellt lukt- och känselsinne.

En annan försvårande omständighet är exakt vad denna AI bidrar med och vilken roll den har. De saker man ofta stöter på som kallas för AI är någon form av mjukvara som tjänst, exempelvis ett interaktivt beslutsträd för egen triagering. Det kanske inte är fullt så spännande att använda en AI-teknik för att skapa en mer statisk kunskap. Att det enda AI:n gör är att skapa resultatet snarare än att vara resultatet eller tjänsten.

Några exempelprojekt och centrumbildningar

Försöket att samla ihop en bra lista över nationella eller större AI-initiativ, blev verkligen typexempel på “högt och lågt”. Delvis för att det verkar som att nästan alla har genomfört testprojekt i olika stor omfattning, förstudier, m.m. Dessa kan vara allt från att ha tillämpat något gränsfall mellan Business Intelligence-teknik och maskininlärning på en datakälla, och lärt sig något, till att vara en mötesplats för AI-tekniken datorseende inom radiologi. Ännu en försvårande dimension är var på skalan grundforskning kontra redan i bruk något är.

Men några lite större exempel och centrumbildningar är ändå intressanta att lyfta fram.

Linköping & Norrköping: AIDA (Analytic Imaging Diagnostic Arena), CMIV och Visual Sweden

Linköpings Universitets AIDA stöttas bland annat av Swelifes systerorganisation Medtech4Health och Vinnova:

”AIDA är en nationell arena för forskning och innovation kring artificiell intelligens, AI, för medicinsk bildanalys.”

AIDA (Analytic Imaging Diagnostic Arena) på Linköpings Universitet

I Linköping finns också CMIV (Centrum för medicinsk bildvetenskap och visualisering), Visual Sweden i närliggande Norrköping och så är också regionens smarta specialisering just simulering och visualisering. Mer om smart specialisering senare.

Man jobbar också med projekt som medicinsk digital tvilling (MeDigIT):

”[…] att underlätta användningen av individspecifika digitala modeller i sjukvården för bättre diagnostik, mer individanpassad behandling av sjukdom, och förenklad och förbättrad utbildning av sjukvårdspersonal.”

Medicinsk Digital Tvilling (MeDigiT)

Göteborg: AI Innovation of Sweden, Scapis, PreSISe, språkdatalabb och Chalmers AI Research Centre (CHAIR) m.m.

På Lindholmen i Göteborg öppnade den första noden av AI Innovation of Sweden under våren 2019, följt av Stockholm, Malmö/Lund och fler orter. Utöver en gemensam kontorsyta finns ett flertal mål, varav ett är att bygga en datafabrik. En del som gäller life science är att Scapis-datasetet kommer till datafabriken. Scapis är en världsunik studie som följt och samlat data från 30 000 personer med målet att förhindra hjärt- kärlsjukdomar.

Inom PICTA (också på Lindholmen) jobbar man med PreSISe:

”PreSISe är ett långsiktigt projekt där ett AI-baserat beslutsstöd ska utvecklas och utvärderas för prehospital skattning av sepsisrisk.”

PreSISe – Prehospitalt BeslutsStöd för Identifiering av Sepsisrisk

Språkdatalabbet hamnar i tidigare nämnd datafabrik, men det återstår att se om någon av de domänspecifika texterna handlar om vård eller hälsa. Följande syfte och mål angavs i alla fall vid ansökan till Vinnova:

”…ta fram svenska referensdataset och modeller för Natural Language Processing (NLP) och tillgängliggöra dessa med öppen access i AI Innovation of Swedens datafabrik. Projektet kommer också inkludera förstudier för vidare projekt inom domänspecifik text och förtränade modeller.”

Svenskt Språkdatalabb

Upplägget nämner att “Projektet inkluderar också förstudier för tillämpningen av domänspecifik text” så kanske är det möjligt att påverka. Ett inte helt olikt initiativ är det projekt som koordineras av Sahlgrenska Science Park för att etablera ett Svenskt medicinskt språkdatalabb som fick stöttning av Vinnova under december 2019. Ett annat initiativ i samma omgång av Vinnova-stöttning är Göteborgs Universitets AI-plattform för medicinska datamängder. De båda initiativen kommer underlätta tillgången till träningsdata och språkmodeller för AI-forskning och utveckling.

CHAIR på Chalmers har ett uttalat fokus på “applied AI in life science and health” som ett av sina fem områden och har börjat leverera på den punkten. Chair ska också samarbeta med Sahlgrenska Universitetssjukhuset:

”Nu inleder Chair och Sahlgrenska Universitetssjukhuset ett strategiskt forskningssamarbete kring AI i vården. Sjukhuset får ta del av den AI-kompetens som finns på Chalmers – samtidigt som Chalmers tar del av universitetssjukhusets medicinska kompetens.”

Chalmers och Sahlgrenska Universitetssjukhuset i forskningssamarbete kring AI i sjukvården (september, 2019)

Dessutom har läkemedelsbolaget AstraZeneca en lokal närvaro strax söder om Göteborg. Där ligger ett av deras centrum för forskning och utveckling av läkemedel, med cirka 2400 medarbetare från över 50 länder. Det göteborgska företaget Appva är ett exempel på redan implementerad AI-teknik vars AI-lösning undvek extra administrativ börda på vårdpersonal samtidigt som de följer nya regler från Socialstyrelsen:

”Genom att använda delar av de 70 miljoner digitala e-signeringar som finns i MCSS har vi tränat upp en AI-robot att identifiera och rapportera KVÅ-koder till Socialstyrelsen.”

Appva (December 2018)

Västerbotten: WASP-HS (Wallenberg AI, Autonomous Systems and Software Program – Humanities & Society)

Umeå Universitet har rekryterat Virginia Dignum för att stärka sig inom social AI och under 2019 har de som värduniversitet tilldelats pengar från Wallenbergstiftelsen WASP för detta. Social/etisk AI är inte nödvändigtvis relaterat till life science, men är garanterat en värdefull resurs.

”– Vi kommer bland annat titta på metoder och verktyg för att säkerställa att AI och autonoma system formas så att de inte strider mot mänskliga värderingar och etiska principer.”

Virginia Dignum, forskar om samhälleliga, etiska och kulturella konsekvenser av AI

Den nytta samtalsparterna i Umeå såg med AI-tekniker återkom ofta till att det inte fanns människor eller resurser till allt man önskade. Illustrerande exempel man jobbade med, som en chatbot i receptionen hos tandvårdens testmiljö, fanns redan ute i verkligheten. Medan vi i södra halvan av Sverige pratar om brist på personal och resurser som ett kommande problem är detta redan verklighet i Norrlands inland. I Umeå har man också behovet att optimera schemaläggning för patientens skull då resvägen kan vara väldigt lång. Patienten ska inte behöva en resa för att lämna blod, ytterligare en för att få resultatet och så vidare.

I “närliggande” Skellefteå jobbar man med uppkopplade hem, tillsammans med det strategiska innovationsprogrammet IoT Sverige, för en flexiblare hemtjänst.

Stockholm: I-AID, MedTechLabs och KTH

Karolinska Universitetssjukhuset och Region Stockholm jobbar med I-AID, ett stöd för att snabbare införa AI i vården.

”[…] att snabbare driva utvecklingen – och införandet – av AI i vården, utifrån patientens och vårdens behov. Målet är säkrare och snabbare diagnostik för att använda vårdens resurser på bästa möjliga sätt och skapa mer jämlik vård.”

I-AID – regional kraftsamling för att snabbare införa AI i vården

En annan innovation i sammanhanget var att Karolinska körde en öppen remiss på sin kommande upphandling av AI under våren 2019.

Det skulle förstås bli en lång lista att nämna alla initiativ som har en ingrediens av AI. Men en av de mer intressanta är PATHFx som är open source och intressant internationellt då det körs mot ett internationellt kvalitetsregister för metastatisk bencancer. Ett annat intressant initiativ har man tillsammans med Region Dalarna där man screenar för muncancer hos Folktandvården. Det är en liknande metod som för livmoderhalscancer redan visat sig vara framgångsrik.

Det blir en nod av AI Innovation of Sweden i Kista under 2020, men sedan tidigare finns också H2 Health Hub för den som söker en mötesplats för nordisk hälsoteknik.

Centrumet MedTechLabs är ett nytt center som stöttas bland annat av Kungliga Tekniska Högskolan (KTH). KTH har dessutom sin Life Science Technology-plattform.

”Life Science Technology är ett tvärvetenskapligt område format genom konvergensen av ingenjörsvetenskap, fysik och matematik. Flera forskningsgrupper på KTH är världsledande inom respektive expertisområde.”

KTH:s Life Science Technology (LST)-plattform

Stockholm har förstås en del möjligheter som huvudstad och den plats där ett flertal viktiga myndigheter och nyckelpersoner finns.

Sammanfattning av intervjuer i Stockholmsområdet

För Stockholmsområdet var det en handfull som intervjuades i början av 2019. Deras profil var konsulter, utvecklare, produktansvarig, projektledare och mer eller mindre stor dos av tekniskt säljstöd. Gemensamt för de uppdrag som nämndes var att kunden var finansierad med skattemedel och att lösningarna syftade till att höja kvaliteten i hälso- och sjukvården genom att bli (ännu) mer datadriven.

En av deltagarna la mycket tid på att prata korrelation och kausalitet – att man även inom AI-området tenderar att förhasta sig och tillämpar något utan att faktiskt förstå orsaken (kausalitet). Hen tyckte att vi borde jobba mer med orsakssamband, åtminstone när något var viktigt. Stockholms AI Sustainability Center nämndes mer än en gång.

En annan av samtalsparterna jobbade med avancerad analys i form av en analysprodukt som på senare år byggt in funktioner för maskininlärning, naturligt språk, datorseende och prediktion. En slutsats var att det faktiskt finns mjukvara som tillgängliggör AI-teknik för folk som inte ska behöva lära sig att programmera.

Skövde

En intressant sak med Skövde är att man på högskolan har vårdutbildning, samt kunnigt folk inom AI-teknik. Där finns också kompetens om användarupplevelser och spel vilket är relevant på ett flertal sätt, inte minst för att designa AI-lösningar så att de kommer till användning.

Några exempel på projekt hos Högskolan i Skövde:

  • DMDPipe – identifiera och analysera sjukdomsalstrande proteiner.
  • Bio-mine – metoder för diagnos och prognos för att besvara frågor som hur långt gången en sjukdom är. Baserat på biomarkörer.
  • AI-teknik för att analysera donerade blodkärl, för att undvika immunreaktion hos mottagaren.

På högskolan jobbar man med projekt tillsammans med fordonsindustrin som kan komma till indirekt nytta för hälso- och sjukvård, exempelvis att försöka tolka en människas intention vid rörelser och för att klassificera gester. Man jobbar också med AstraZeneca för att ta fram nya läkemedel, bland annat genom djupinlärning. Undertonen i samtalen var att göra saker lite närmre en tillämpbar verklighet i jämförelse med andra högskolor.

Skåne: HealthTech Nordic och AI-center

Medicon Village är en science park för life science, där ett flertal förstås jobbar med olika AI-tekniker. Man har också inkubatorn Smile och projektet HealthTech Nordic som hjälper startups inom hälsoteknik, även utanför Skåne, exempelvis:

  • aiten – personliga algoritmer för de med hypertoni.
  • Aweria – beslutsstöd för prehospital- och akutvård.
  • Boneprox – bedömer risk för benskörhet via tandröntgen.

Bara för att nämna ett fåtal i toppen av den alfabetiska listan.

Du som imponerades över Google-lösningen Duplex under utvecklarkonferensen i/0 våren 2019 kan hitta liknande initiativ i Skåne. Tmeeting-TERA gör att de med nedsatt hörsel kan ringa vanliga telefonsamtal och ha möten utan att gå via en tredjepart, till exempel en tolk. Den inbyggda AI-tolken använder tekniken tal-till-text och text-till-tal både i telefonsamtal och i vanliga samtal när dialogparterna är på samma plats.

Man har också minst ett AI-center på gång. Det blir åtminstone en sydlig nod av nationella satsningen AI Innovation of Sweden, där det strax innan jul 2019 berättades att Sony går in som första storbolag. Helsingborg Stad har också presenterat Get AI tillsammans med Lunds universitet, ett AI-center som har för ambition att komma med i regeringens satsning AI Innovation of Sweden.

Intryck av intervjuerna i Malmö och Lund

I södra Sverige dök det upp ett flertal läkare på träffarna. Andra som kom var startups eller etablerade organisationer som hade AI-projekt som blivande avknoppningar. Ett flertal är inom medicinteknik, andra jobbade i kombination mellan vården och akademin. Några gjorde maskininlärning från grunden medan andra körde de ramverk som erbjuds.

En intressant sidodiskussion dök upp även i södra Sverige: Att “AI egentligen bara är en mer avancerad analys” och att ämnet närmades både med en dos irritation kring begreppet, men också att ytterst få vill säga att de är bra på AI.

Halmstad Universitet och Region Halland

Aiway vid Hälsoteknikcentrum i Halland är spännande som en mix mellan Region Halland och Halmstads universitet. Universitetet har omnämnts under vårens intervjuer som en tankeledare inom IT-säkerhet vilket förstås är relevant i detta sammanhang. I och med att man har ett samarbete med amerikanska organisationer undersöker man också distribuerad maskininlärning för att följa det integritetsskydd som förväntas.

Centrumbildningar och satsningar utan fokus specifikt på life science

Vinnova släppte en rapport sommaren 2019 över forsknings- och innovationsmiljöer som:

”[…] tagit på sig ett ledarskap och som samlar och koordinerar utvecklingskrafter och kompetens för utveckling av artificiell intelligens. Miljöerna har olika karaktär och utgörs av forsknings- och utbildningsmiljöer, testbäddar, inkubatorer, hubbar, arenor och nätverk.”

AI-miljöer i Sverige (Vinnova, juli 2019)

Figur 2: I ovanstående rapport från Vinnova finns denna visuella presentation över var i Sverige AI händer.

Inom akademi, forskning och utbildning är det några som sticker ut. Några har redan nämnts, som KTH, Umeå Universitet och Chalmers, men det finns fler, som de nationella; AI Competence for Sweden som jobbar nationellt med utbildning och kompetensutveckling inom AI, och SAIS – The Swedish AI Society.

Wallenbergstiftelsen WASP (Wallenberg AI, Autonomous Systems and Software Program) satsar flera miljarder de kommande åren på AI, bland annat på humanistisk- och samhällsvetenskaplig forskning inom AI och autonoma system – WASP-HS. WASP-HS bedriver en forskarskola med upp till 70 st. doktorander. En stor del av de pengarna landar hos Umeå Universitet, som också själva satsar 100 miljoner på AI.

Innovationsmyndigheten Vinnova har förstås genomfört ett flertal utlysningar, bland annat om att påbörja sin AI-resa, använda naturligt språk som teknik, med mera.

Vinnova-rapporten, AI-miljöer i Sverige, har mer detaljer om respektive AI-miljö.

Del 2: Internationell utblick

Inledning, syfte och metod

Denna del tar avstamp från bland annat den internationella utblicken Socialstyrelsen gjorde i sin rapport, Digitala vårdtjänster och artificiell intelligens i hälso- och sjukvården, som släpptes hösten 2019. Med tanke på olikheter i rapporternas syfte finns kompletterande perspektiv som kan vara värda att ta upp i denna rapport. Dessutom finns ett flertal befintliga utredningar och rapporter i ämnets olika delar. Därför kommer denna del att hänvisa frekvent, snarare än att redovisa kompletta förteckningar. Mer fokusera på nyansering, aktuell diskurs och uppdateringar sedan respektive referens skrevs.

AI beskrivs som den fjärde industriella revolutionen och något som snart, eller kanske redan nu, vi alla måste bry oss om för att fortsätta vara relevanta. Det är i ljuset av de högt ställda förväntningarna på detta “nya” som det är intressant att studera nuläget, och, om det även är tillämpbart inom life science som bransch för att uppnå en bättre hälsa.

Avsikten med en internationell utblick är att se vad andra gör och vilken nisch som skulle kunna göra Sverige konkurrenskraftigt internationellt. Det är få som tror att Sverige skulle kunna dominera på AI-området. Farhågan är också att små länder riskerar att bli dataexportörer och inte hittar sin plats lite högre upp i värdekedjan.

Det är förstås svårt att ha alla svar på utmaningen om hur Sverige blir konkurrenskraftigt inom AI för bättre hälsa. Ambitionen är, bland annat, att ge en utblick och problematisera vissa ofta repeterade “sanningar” om sakernas tillstånd.

Metod för insamling av information

Världen är stor och det skulle innebära ett enormt arbete att resa runt för att intervjua folk. Dock är det förstås viktigt att försöka bryta sig ur sin egen filterbubbla. Därför har:

  • En bredd av medier studerats (särskilt MIT Tech Review)
  • Böcker lästs
  • Rapporter och skrivelser från brittiska National Health Service (NHS) och amerikanska Federal Drug and Adminstration (FDA) har studerats.
  • Ett flertal poddar lyssnats på.
  • Information framkommit via intervjuer med svensk expertis under resorna i vårt avlånga land.

Internationella AI-centra

Inte allt det som tas upp nedan är specifikt för AI för bättre hälsa. Dessutom är det svårt att inte jämföra äpplen med päron, med tanke på allt som idag utmålas som AI. En god dos skepsis är på sin plats. Det som ändå tas upp är med för att man nog i många fall kan komplettera den AI/IT-expertis som finns med närområdets domänexpertis inom hälsa. Vill du ha fler infallsvinklar har Socialstyrelsen en internationell utblick (sida 47) som sammanfattar Vinnova-rapporten, från 2018, Artificiell intelligens i svenskt näringsliv och samhälle, samt den mer generella rapport, Artificial Intelligence: A European Perspective, som EU Science Hub släppte i slutet av 2019.

Alternativt kan du kolla in Crunchbase, de har identifierat drygt 200 stycken “hubbar” inom AI i stort och 7000 startups inom maskininlärning. Dock blandar de nationer, region och städer, så det kräver lite geografikunskaper.

Nationer i framkant

USA och Kina nämns ofta, men också Kanada och EU-länderna som grupp. En vanlig jämförelse på nationell nivå är att prata om hur mycket man satsar rent ekonomiskt eller att det redovisas vilka kända företag som finns. Det är mer sällsynt att man pratar om resultat på en nationell nivå. Det kanske är naturligt då resultat ofta rapporteras längre ner i strukturen, exempelvis från företag och universitet, eller på en överstatlig nivå med de teknikjättar som finns.

Ett land som sticker ut lite är Kanada med deras CIFAR. De släpper en årlig rapport om hur det går med deras nationella AI-strategi. Enligt CIFAR var de först med att ta fram en nationell AI-strategi.

EU vill förstås inte vara sämre och satsar relativt stort. När Europeiska investeringsfonden (EIF) i november 2019 gick ut med att man satsar en miljard på AI (och blockkedjeteknik) poängterar man behovet av att inte enbart finansiera forskning:

”[…] much of the funding is directed at the research and proof-of-concept stage. When it comes to funding development on a larger scale, we just don’t do so much of it in Europe.”

– Why do we need to support blockchain and AI in Europe? (EIF, November 2019)

EIF poängterar att de som lyckas ta steget från forskning till företagande i stor utsträckning varit beroende av stöd från USA eller den amerikanska marknaden. Vilket kan leda till “brain-drain” i Europa, att de med bra lösningar flyttar eller på andra sätt binds upp av utom-europeiska intressen.

I form av faktiska resultat är det kanske EU:s HLEG (High-Level Experts Group) on AI som stått för det mest påtagliga bidraget på senare tid genom sina Etiska riktlinjer för tillförlitlig AI. Under 2018–2019 har etisk användning av AI diskuterats flitigt. En och annan snyting har utdelats för hur användningsområdet och målsättningen är för den AI som utvecklas i Kina. Men amerikanska företags AI-teknik har varit i skottgluggen och ifrågasatts om de linjerar med integritet, individens rätt till ett privatliv och skydd mot automatiska beslut så som de regleras bland annat i EU:s dataskyddsförordning.

Amerikanska marknaden (och FDA) tycks innovativ

För de som tänker på den amerikanska marknaden regleras många av dessa frågor av myndigheten FDA, lite motsvarande svenska Läkemedelsverket. Och den tongivande lagen kallas HIPAA (Health Insurance Portability and Accountability Act).

FDA har en handlingsplan som går under namnet Digital Health Innovation Action Plan, vilket annonserades i januari 2019. Med ambitionen “aiming to make the agency more efficient, while promoting safety throughout a product’s lifecycle” enligt deras företrädare Scott Gottlieb.

FDA släppte ett klargörande utkast om mjukvaror inom kliniskt beslutsstöd hösten 2019. Det går ut på att reglera de mjukvaror som har en medel till hög risk att direkt påverka hälsa. Enligt FDA:s pressmeddelande i anslutning till klargörandet berättade man att regleringen måste vara en balans mellan att uppmuntra innovation utan att tumma på patientsäkerheten. FDA har tidigare sjösatt idéer inom området, som en enklare process att kunna certifiera AI-lösningar, vad de kallar “Digital Health Precertification (Pre-Cert) Program”, där man låter skaparna av AI-lösningen jobba med godkännandet av processen fram till en lösning snarare än att först, när AI-lösningen väl är klar, försöka få den certifierad i efterhand.

En kommentar till FDA:s arbete kom från Eric Topol, expert på Scripps Research Institute och författare till boken Deep Medicine, per e-post med STAT. Topol konstaterar det kloka i att inte certifiera baserat på dåtid genom att frysa lösningen vid ögonblicket den certifieras.

”[Eric Topol] added that the eventual regulatory framework should support the ability of adaptive AI systems to learn and improve over time. “It is important to come up with a means of not shortchanging the auto-didactic power of deep learning nets that will continue to improve, not ‘freeze’ at the time of approval”

FDA developing new rules for artificial intelligence in medicine (STAT, April 2019)

Gartner släppte en rapport (Survey Analysis: AI and ML Development Strategies, Motivators and Adoption Challenges) juli 2019, som visserligen inte är specifik för life science, där 59% av de intervjuade företagen redan sjösatt minst ett AI- eller maskininlärningsprojekt. Genomsnittligen har de fyra projekt igång, sex ytterligare planerade för 2020. Till år 2022 uppskattar de som svarat i studien att de har i genomsnitt 35 projekt igång.

En intressant detalj i den studien är att den vanligaste drivkraften bakom AI-initiativen uppges bero på önskan om en förbättrad kundupplevelse. Hela 40% hoppas på att uppnå detta. Denna studie är inte specifik för de som jobbar med AI för bättre hälsa, men beskriver hur tankegångarna går generellt.

En annan internationell studie publicerades av MIT Sloan Management Review i slutet av 2019, Winning With AI. De har intervjuat 2500 företagsledare och av dem har sju av tio uppgett att de ännu inte alls haft, eller haft högst begränsad, nytta av AI. Men det gör inte att de saknar hopp, hela nio av tio anser att AI utgör en affärsmöjlighet för deras organisation.

Utforskandet av möjligheterna

Figur 3: Hajpkurva med olika stadier av teknikmognad.

Det är svårt att veta vad exakt vad som avses med alla dessa skrivelser och pressmeddelanden man stöter på. Är det samma AI alla pratar om?

Det är lätt att tro att de etablerade aktörerna inom hälsosektorn inte innoverar med hjälp av AI-teknik då de sällan får de stora rubrikerna. Om man ska våga sig på lite spekulerande kanske de etablerade aktörerna befinner sig längre till höger på hajpkurvan. De är mer mogna, de är inne i den produktiva platån. Det förutsätter att AI-teknik inte kom som en total överraskning för dem utan att de jobbat metodiskt och datadrivet redan innan. Att dagens AI-teknik i deras värld bara är en kontinuerlig förbättring av det de redan gjorde och var experter på.

Och om man spekulerar lite kring de sensationella rubrikerna så är de ofta från en startup eller att någon har en mäktig IT-jätte i ryggen. För startups är kommunikation väsentligt, samt att dra nytta av en hajp eftersom det hjälper till att hitta finansiärer som kan stötta företagets utveckling. På startup-scenen är av naturliga skäl hajpkurvans “Peak of inflated expectations” ett normaltillstånd, det är trots allt att omvandla en “technology trigger” till något lönsamt man försöker hitta. AI är utan tvekan en technology trigger och möjliggörare. En startup kan dra nytta av att använda detta på sätt som de etablerade aktörerna inte insett skapar nytta. Och en startup är förstås snabbare på att ställa om i sitt utforskande av möjligheterna.

Exempel på intressanta bolag

Med all respekt för etablerade aktörers arbete listas nedan några exempel på mer omvälvande lösningar. Sedan återstår att se om det de gör kommer att fungera bra nog för en implementation.

Insilico Medicine har, i vad som utmålats som läkemedelsindustrins AlphaGo-ögonblick, visat exempel på hur man lyckats generera fram kandidater till läkemedel på några dagar. Det ska vara femton gånger snabbare än vad som är brukligt.

”The drug discovery process consists of many phases and often takes decades. In preclinical phases the failure rates are over 99%. Our AI can be used in all phases and in some cases lead to superhuman results. Our AI is exceptionally good at finding the molecular targets in specific diseases and inventing new chemistry. We intend to use this in a big way.”

Alex Zhavoronkov PhD, Founder & CEO, Insilico Medicine

Att snabba upp utvecklingen av läkemedel är en förutsättning för att ställa om för att behandla mindre grupper, samt att komma till en utvecklingskostnad som kan börja utjämna tillgången av läkemedel till de mindre välbärgade delarna av världen.

Företaget Verily (ägd av Alphabet, alltså Googles moderbolag) jobbar i gränslandet mellan teknik, data science och hälsovård med att skapa nytta av all den hälsodata som finns. Detta genom precisionsmedicin som personaliserad behandling av Parkinsons sjukdom, men också i NHS:s testbädd för tidiga interventioner, bland många exempel.

Ett företag som många av oss nog inser har en bit kvar innan de når en massmarknad är Neuralink, som har Elon Musk som färgstark ambassadör. Neuralinks ansats är att bygga ett gränssnitt mellan hjärnans biologi och teknisk utrustning, ett så kallat brain-machine interface (BMI, i andra sammanhang kallat Brain Computer Interface – BCI). Denna sorts teknik kan användas för kommunikation mellan hjärna och maskin rent generellt, men forskning på olika terapier finns (se Artificial Intelligence in Behavioral and Mental Health Care , ISBN: 9780124202481). Bland annat som behandling för icke-medfödd blindhet, styra proteser, samt att det finns förhoppning om att behandla hjärnor som drabbats av stroke, trauma och åldrande.

”Brain-machine interfaces (BMIs) hold promise for the restoration of sensory and motor function and the treatment of neurological disorders, but clinical BMIs have not yet been widely adopted, in part because modest channel counts have limited their potential.

[…]

We have also built a neurosurgical robot capable of inserting six threads (192 electrodes) per minute. Each thread can be individually inserted into the brain with micron precision for avoidance of surface vasculature and targeting specific brain regions. The electrode array is packaged into a small implantable device”

An integrated brain-machine interface platform with thousands of channels (Elon Musk, Neuralink, juli 2019)

Del 3: Gapanalys – vad är Sveriges konkurrenssituation?

Det finns en väldigt tydlig baktanke med denna gapanalys, nämligen att försöka reda i frågor som; vad kan Sverige briljera inom för delområde av AI, för att ha konkurrenskraftiga företag?

Tänk framtidens skatteintäkter, utveckling av kunskaper, skapa tankeledare, ställa om från reaktiv sjukvård till förebyggande hälsovård, och i slutändan bidra till bättre hälsa för oss som bor i Sverige.

Intrycken till gapanalysen är både kvalitativa och kvantitativa. Det har genomförts strukturerade enkäter, regelrätta intervjuer, men också samtal och mycket läsande av olika sorters material i ämnet.

Vissa egenskaper har vi i Sverige gemensamt med länder runt omkring oss. Exempelvis att vår lagstiftning ofta är gemensam, eller åtminstone i harmoni, med de flesta länderna i Europa, eller att vi kulturellt inte alltid skiljer ut oss nämnvärt med våra nordiska grannländer. Det kan ge oss färre konkurrenter i en viss nisch, eller att vi har en europeisk hemmamarknad där vi enbart konkurrerar med andra länder som också lyder under EU:s dataskyddsförordning eller vårt medicintekniska regelverk.

Styrkor – vad som talar för svensk AI

Ofta nämns vår tradition av ordning och reda när styrkor kommer på tal. Sveriges unika identitet på alla invånare i form av personnummer (och samordningsnummer) samt vårdens intresse av kvalitetsarbete genom våra kvalitetsregister.

Att Wallenbergstiftelsen WASP satsar miljardbelopp i Sverige är svårt att inte märka av och de satsningarna kommer bära frukt inom några år. Sveriges innovationsmyndighet, Vinnova, satsar även de pengar på olika AI-inriktade initiativ, med bred spännvidd, som mindre summor för att komma igång med sin AI-resa, men också specifika saker som att stödja AI-tekniken naturligt språk.

Svensken beskrivs ofta som tekniskt mogen jämfört med andra befolkningar och som nation rankas vi (och våra grannländer) högt i praktiskt taget varje topplista om innovation som går att finna, bland annat Bloomberg Innovation Index. Vissa av respondenterna till enkäten och även under intervjuerna lyfter fram att landets litenhet kan vara en styrka, att det bör vara enklare att samordna än på andra håll.

Datacenter gillar nordisk kyla

Läser man IT-branschpress är det lätt att tro att Sverige har en unik position att bedriva datacenter tack vare vårt svala klimat, god tillgång till vatten för kyla och närhet till ett något varmare Europa. Exempelvis:

”– Den svala nordiska regionen är Europas hetaste datacentermarknad. Ett företag som etablerar sig med 100 megawatt över 20 år kan spara omkring 2 miljarder dollar genom att placera sitt datacenter i Sverige eller Norge jämfört med Storbritannien.”

Byrne Murphy, ordförande i Digiplex (maj 2019, Computer Sweden)

Kan det komma life science till nytta om vi lyckas lösa juridiska knutar som den amerikanska lagstiftningens CLOUD Act, eller genom att mer lokala molnleverantörer får ett uppsving just på grund av juridiken? Vi kanske inte kan vänta oss att Cerner eller Epic har mycket att vinna på att bygga upp en extra moln-infrastruktur i Sverige för sina journalsystem. CLOUD Act innebär att amerikanska företag inte kan leverera molntjänster till organisationer för den data som lyder under svensk säkerhet- och sekretesslagstiftning. Detta eftersom den amerikanska lagstiftningen kräver av amerikanska företag att lämna över data även om den är lagrad i exempelvis Sverige. eSam skrev i november 2018 att:

”eSams juridiska expertgrupp bedömer att det inte går att utesluta att en leverantör av en molntjänst som lyder under utländsk lagstiftning kan medverka till att sekretessreglerade uppgifter röjs.”

eSam ser risker med molntjänster i offentlig sektor

eSams tolkning har dock mött en del invändningar från start och sedan våren 2019 en del klargöranden om vad som krävs för att CLOUD Act inte behöver vara ett problem, åtminstone inte rent juridiskt. En annan väg är ett statligt moln vilket Regeringen i september 2019 tillsatte en utredning för att utkristallisera, samt vad myndigheter får lägga i privata moln, något som bör kunna klargöra frågor även för privat sektor.

Svagheter – identifierade brister

Kvalitetsregistren må vara bra men de är sina egna silos. Variabler som avser samma sak har helt olika namn, samtidigt som saker med olika innebörd kan heta samma sak. RUT-projektet, som Vetenskapsrådet jobbat med, ger dock en god transparens kring metadata för den som forskar på registren. Det är lite plåster på såren.

Respondenter och intervjuade personer lyfter fram svagheten i att vi inte i större utsträckning använder den information och data som redan finns. Exempelvis att patienter har mycket information som varken AI eller läkare någonsin ser. Det finns heller inte något enkelt eller etablerat sätt att dela med sig av den insamlade data man som patient/invånare har. Eftersom journalen inte är under invånarens kontroll gör det att hen i en patientsituation inte kan hjälpa en läkare att ta del av andra läkares anteckningar, när de inte finns i samma system. Att åtminstone hälso- och sjukvården ska kunna dela patientinformation internt är något praktiskt taget alla regioner jobbar med år 2020 och under de kommande åren. Det kommer ta många år innan man förhoppningsvis når i mål. Men också att det inte nödvändigtvis löser hela utmaningen, trots initiativ som patientportaler och löften om API:er. Först när de nya vårdinformationsmiljöerna är på plats kanske invånare faktiskt kan ha en egen kopia av sin journal för att inte vara begränsad till den hälso- och sjukvård som bedrivs inom Sveriges geografiska område.

En tydlig svaghet, åtminstone för svensk offentlig sektor, att bli särskilt innovativa är det digitala arv (ibland kallat digital skuld eller på engelska technical debt) man har i allt man redan investerat i.

”Stora delar av svensk offentlig sektor dras med en hög digital skuld. Det betyder att tidigare digitala investeringar och inköp som finns kvar i organisationen ligger som en hämsko och kostar pengar och resurser”

Johan Magnusson, docent vid Göteborgs Universitet, kommenterar rapporten Digital mognad i offentlig förvaltning 2019

En respondent svarar med en fråga: ”Öar av AI-experiment finns men kommer de att göra skillnad?” Det bekräftas delvis, anekdotiskt, av alla AI-initiativ som redan gjorts i kombination med hur svårt det är att bekräfta deras resultat, men mer sakligt av Digital mognad i offentlig förvaltning 2019 identifierade brist i nyttorealisering generellt gällande innovation i stort.

Att Sverige satsar småpengar, i sammanhanget, på AI kommer ofta upp. Dock kan det tyckas vara orättvist att räkna pengar på nationell nivå med tanke på att vår befolkning motsvarar en normal storstad i många andra länder. Kanske borde vi snarare jämföra oss med våra investerade kronor per capita?

Det tycks också finnas konsensus om hur svårt det är att komma till ute i domänexperternas verklighet. Ibland beskrivs det som att Sverige behöver ”våga rulla ut piloter i linjen”, avseende vårdens linjeorganisation. Ibland att de ute i hälso- och sjukvårdsverksamheterna är för upptagna för att hinna med vare sig innovation eller ens omsätta redan bekräftade lösningar i praktiken.

Naiv teknikanvändning

I utforskandet av hajpad teknik är det lätt hänt att tillämpa det där nya på saker där det inte är lämpligt eller det optimala valet. Initiativ som är tänkta att dra nytta av AI-teknik kan mycket väl sluta i att använda en mer etablerad och enklare tekniklösning. Problemet är förstås inte unikt för AI, eller några av dess deltekniker. Jämför med den parallella hajpen med blockkedjor, eller digital teknik i stort.

Det kan vara knepigt att få ihop alla ytterligheter av människors syn på AI. Allt ifrån teknikoptimisternas synsätt att bara de kommer över mer data löser sig det mesta, till medicintekniska ingenjörer som avfärdar hela fältet med ”om AI:n nu är intelligent är den rimligen olaglig att använda”. Även inom vårdyrkena finns ytterligheter. Från Eric Topols tankar i boken Deep Medicine om att AI kan ta fram det humana i vården igen, till de som befarar att detta bara är ännu mer av den IT man tycker stjäl fokus från det mellanmänskliga mötet.

Vanliga missuppfattningar om medicinsk AI

Anthony Chang sammanfattar med sitt kapitel i boken Artificial Intelligence in Medicine (släppt 2019, ISBN: 9783030216429) några av de, i hans mening, mer vanliga missuppfattningarna som gäller tillämpning av AI inom medicinen. Med ett talande kapitelnamn “Common Misconceptions and Future Directions for AI in Medicine: A Physician-Data Scientist Perspective” argumenterar Chang emot följande elva uppfattningar.

Att kliniskt verksamma kommer att ersättas av AI

Det tycks finnas en fundamental brist på förståelse vad en kliniker faktiskt gör. Även om AI, i allt fler fall, kan göra perception bättre än människor är den inte i närheten när det gäller sysslor som har med kognition eller allt övrigt inom verksamheten som en människas mångsidighet hanterar.

AI kan tillämpas och bidra med värde inom alla delar av hälso- och sjukvård

AI kan säkerligen bidra med arbetsflöden och träffsäkerhet när det gäller diagnoser (precis som övrig medicinteknik), men briljerar inte inom alla områden. Chang föreslår exempelvis auskultation, att lyssna på patientens kropp, och föreslår att innovatörer inom AI börjar med att klargöra problemet först. Detta genom att dra nytta av designtänkande.

Eftersom AI var lyckosam med spelet Go kan det bli framgångsrikt inom medicin och hälsosektorn

En tydlig skillnad mellan spelet Go och medicinsk verksamhet är på vilket sätt “strategispelet” tillämpas. Intensivvård, på akuten, hanteringen av kroniska patienter och folkhälsa är mer likt ett spel inom realtidsstrategi som Starcraft. Nog för att DeepMind i början av 2019, med AlphaStar, lyckades spela spelet i sig. Men varje patient kommer med sina helt egna förutsättningar som förändrar “spelet”. Det handlar inte enbart om att kunna “spela” hundratals spel parallellt eftersom inte alla spelregler kan nedtecknas på förhand, vilket kan visa sig svårare än man först tänkt sig.

Djupinlärning, och särskilt CNN, blir det AI-verktyg vi länge kommer att föredra

Det finns ingen anledning att förneka att djupinlärning är effektiv inom datorseende, och då inom hälsa att tolka bilder medicinskt. Djupinlärning är också bra på medicinskt beslutsstöd.

”Widespread application of artificial intelligence in health care has been anticipated for half a century. For most of that time, the dominant approach to artificial intelligence was inspired by logic: researchers assumed that the essence of intelligence was manipulating symbolic expressions, using rules of inference.”

Deep Learning — A Technology with the Potential to Transform Health Care (JAMA, 2018)

Men även gurus inom djupinlärning, som Geoffrey Hinton som skrev ovanstående citerad artikel, anser att djupinlärning behöver bli mer sofistikerad i framtiden för att transformera hälso- och sjukvård. För det behövs tekniker som recursive cortical network och transfer learning för att hantera den högst naturliga begränsningen av träningsdata. Transfer learning är ett sätt att ta med sig lärdomar från ett begränsat tillämpningsområde till ett annat.

Det behövs mer biomedicinska data för djupinlärning

Det finns ett flertal områden där ‘big data’ inte är en rimlig lösning. Exempelvis vid sällsynta diagnoser då där finns ett högst begränsat antal relevanta patienter att jämföra med. Andra exempel handlar förstås om andra ovanligheter, som extremt sofistikerade eller invasiva tester, eller extremt riskabla eller kostsamma ingrepp. Big data är inte en garant för kreativitet, dock kan GAN:s (Generative Adversarial Networks) och One-shot learning balansera upp den bilden.

Arean under kurvan (AUC) är en bra indikator på om algoritmer presterar

Till att börja med så lyfter Anthony Chang fram det högst mänskliga i att föräldrar ofta har högre ställda förväntningar på sina barn än på sig själva. På samma sätt kan kliniker och data scientists ha högre (och möjligen orimliga) förväntningar på AI.

Chang argumenterar för att det inte är ovanligt att kliniker själva har strax över 50% träffsäkerhet på vissa diagnoser. Alltså knappt bättre än slumpen. Då är frågan hur höga krav man ska ställa på en AI-tillämpning.

Alla som vill bidra inom medicinsk AI måste kunna programmera

Det finns många andra sätt än att programmera där man kan bidra till utvecklingen av AI. Den största bristen inom medicinsk AI är inte inom olika tekniska verktyg, utan snarare inom kvaliteten och hanterandet av de biomedicinska data som behöver samlas in.

AI är främst till för specialister som radiologer och patologer

Visst har AI börjat utmana dessa specialister i att ställa diagnos och bidra i arbetsprocessen. Det är dock inget nytt. Det gjorde även förra vågen av AI, den från 1900-talet, också känd som expertsystem. Den AI som redan är implementerad sedan länge.

Det som återstår för AI inom dessa specialiteter är snarare att blir bra på andra AI-tekniker, som naturligt språk. Och om man nu inkluderar automatisering, likt RPA-botar, för att automatisera bort administrativa sysslor som inte kräver medicinsk kompetens, då finns det mycket att vinna.

AI kommer göra kliniskt verksamma mindre mänskliga

Nej, det är snarare tvärtom. Genom att dra nytta av naturligt språk och förståelse av naturligt språk (Natural Language Understanding, NLU) kan en klinisk person lägga mer tid på det mänskliga och mindre på distraherande teknik. Tänk snarare på ett vårdmöte där ingen form av IT är synlig, där fokus är det mellanmänskliga mötet.

AI-produkter blir svåra att förstå och reglera

Det finns definitivt en risk med en självuppfyllande profetia ifall ingen försöker förstå eller förklara AI. Chang föreslår att det kanske inte är tekniken i sig som behöver regleras, utan snarare individer och de grupper inom organisationer som jobbar med AI. Att införa ett personligt ansvar även för skapare av AI.

Ännu ett förslag till reglering är att överlåta det till maskiner att kontinuerligt övervaka andra maskiner, för att med jämna mellanrum blanda in människor för manuell granskning.

Medicinsk AI kommer först i framtiden

”The future is already here — it’s just not very evenly distributed”

– William Gibson

Precis som William Gibson konstaterade så är framtiden redan här, men den är inte utspridd överallt. Detsamma gäller AI inom medicinen. Medicinsk AI finns redan här men används inte överallt där den borde.

”The advent of AI is a precious gift from our technological colleagues, and while AI is not necessarily going to replace clinicians, it should be part of every medical student’s educational curriculum as well as every physician’s clinical portfolio from this point forward.”

– Anthony Chang

Ju mer Chang får rätt om dessa, enligt honom, vanliga missuppfattningar, desto mer resurser kommer att slösas på arbete som inte leder till resultat.

Hur mycket handlar egentligen om AI-teknik?

Figur 4: Ingående delar vid maskininlärning. ML (maskininlärning) är den lilla mörka rutan i mitten. (Sculley et. al. 2015)

”Only a small fraction of real-world ML systems is composed of the ML code, as shown by the small black box in the middle. The required surrounding infrastructure is vast and complex.”

Hidden technical debt in machine learning systems, Sculley et. al. (2015)

Det är väldigt mycket fokus på den pusselbit som är maskininlärning, desto mindre på de andra helt avgörande bitarna. Att samla in och verifiera data är nog ganska självförklarande, men en större insats än man kan tro. Ibland beskrivs dessa andra delar som ”de tråkigare delarna av AI” men det gör dem inte mindre viktiga. Alla delar kräver stor omsorg, de sköter sig inte själva.

Löser vi verkliga problem, eller de största problemen, genom att utforska hajpen? Det är lite som anekdoten om vilken teknik som skulle hjälpa en sjuksköterska som reser mellan de behövande i ett gäng byar i Afrikas glesbygd. Har hen mest nytta av avancerad prediktion, ruttplanering, ett medicinskt beslutsstöd kanske? Eller kanske egentligen en ficklampa för att hålla utkik efter ormar, då gatubelysning inte är något man kan räkna med? Den viktigaste lösningen är inte alltid den mest attraktiva.

Svårt att behålla kompetensen i Sverige

”I dag köper giganter som Google, Facebook och Apple upp toppforskare inom artificiell intelligens och resursmässigt har vi inom akademin svårt att konkurrera.”

Michael Felsberg, professor på Linköpings Universitet

Med jämna mellanrum kommer det alarmerande uppgifter om hur svårt det är att attrahera eller behålla AI-forskare i Sverige. Det är förstås en legitim oro. Men är det ett problem främst i den lilla pusselbiten som är specifik för maskininlärning, och andra AI-tekniker? Är det också ett problem när den nationella inriktningen ska handla mer om tillämpningar och att dra nytta av AI? Vilket regeringen formulerat på följande vis:

”Sverige ska vara ledande i att ta tillvara möjligheterna som användning av AI kan ge, med syftet att stärka både den svenska välfärden och den svenska konkurrenskraften.”

Nationell inriktning för artificiell intelligens (Näringsdepartementet, maj 2018)

Eller avser man AI-forskning på tillämpningar som är nära en implementering?

Naiv inställning till problem andra redan tänkt på länge

Daniel Gillblad på forskningsinstitutet RISE kommenterade under Tillväxtverkets AI-nätverk i december 2019 att vi troligen även om några år kommer prata om vissa saker när det gäller AI. Man kan se dessa som fundamentala begränsningar för många av AI-teknikerna, där det inte finns några enkla eller självklara lösningar och som på inget sätt är nya utmaningar, nämligen:

  • Förklarbarhet
  • Skalbarhet
  • Hantera ovisshet
  • Kausalitet (alltså orsakssamband och inte enbart nöja oss med korrelation)
  • Etik
  • Robusthet

Att vara naiv kring etiken är nog ändå det mest riskabla och obehagliga. Och etisk AI är på inget sätt nytt som område att forska kring, vilket Virginia Dignum, professor och vetenskaplig direktör av WASP-HS (Humanities and Society), gjorde klart för deltagarna under Göteborgs Universitets heldag om etisk AI i december 2019.

”I’ve been working with this since 1986. For most of my life, no one cared.”

Virginia Dignum

Digitala bländverk?

Det här gäller förstås inte enbart det som är specifikt kring AI. Har vi förutsättning att lyckas om vi kommer med nya skinande verktyg och vill ta tid från domänexperter inom hälso- och sjukvården? Nästan varje yrkesgrupp tycks ha samma mantra: ”det vore bra om vi fick vara med lite tidigare i processen”.

Den AI av idag som gäller individers hälsa är av förklarliga skäl fokuserad på episoder (precis som vården) och saker som kan isoleras relativt enkelt (alltså sällan samsjuklighet). Detta kan vi läsa i alla studier och artiklar om att AI är bättre än en hudläkare på att detektera en handfull diagnoser, snabbare hittar hjärntumör än en radiolog, och så vidare.

Betyder detta att det inte finns systemiska möjligheter att lösa? Eller försöker vi lösa de små delarna, exempelvis en enskild diagnos, i taget? Går det att pussla ihop allt detta till en meningsfull helhet i efterhand?

Sverige är svaga på att dela – även ofarliga data

Ett flertal personer som intervjuats eller besvarat enkäterna återkommer till att vi behöver samarbeta bättre i Sverige – vi behöver dela med oss. Att det kan vara enklare att hitta vad som är redo att implementeras och se till att få nytta genomförd.

Istället är det väldigt mycket teori som aldrig blir praktik. Ett mätbart sätt att se på Sveriges position kring detta är att titta på öppna data. Det är visserligen inte något som är nära patientdata (då skulle motsvarande term vara länkade data, det vill säga inte öppet tillgänglig). Öppna data kan dock ge information om demografi, produktivitet inom hälso- och sjukvårdssystemet, hälsotrender, riktlinjer och rekommendationer gällande hälsa, och mycket mer.

Figur 5: OECD-rapport för 2019 som undersöker data availability (mörk grå), data accessibility (grå) och government support for data re-use (vitt). Sverige är näst sämst.

Så hur bra är Sverige på öppna data? Undertecknad skrev en rekommendation för Västra Götalandsregionen om just öppna data 2010, så att säga att öppna data är något nytt på den svenska digitala kartan är direkt felaktigt.

Sveriges position när det gäller öppna data är riktigt, riktigt, usel. OECD undersöker detta varje år och 2019 kom Sverige näst sist. Det beror inte på någon plötslig djupdykning. Sverige ligger alltid dåligt till i den rankingen. Om man ser det ur en konkurrenssituation är det en klen tröst att Sverige blivit mycket bättre på senare år när vi fortsätter att ligga så oerhört långt efter.

Tänk på DX (developer experience)

Öppna data löser inte på egen hand specifika AI-problem kring hälsa. Dock finns data om demografi, vårdproduktion och mycket mer, som kan vara användbart för AI bara vi får och erbjuder tillgång till de som kan ha nytta av det. Dessa data behöver vara maskinläsbara, alltså kunna bearbetas maskinellt, kanske till och med att katalogerna över olika datakällor i sig är maskinläsbara. En sådan katalog förvaltas av DIGG, myndigheten för digital förvaltning, och återfinns på adressen dataportal.se

Att släppa en lista med PDF-dokument över inskannade handlingar kommer antagligen inte göra susen även om det rent tekniskt kan klassas som öppna data. Bättre är att följa god praxis vid utformandet av API:er och ha en dialog med de tänkta vidareutnyttjarna av data – utvecklarna.

Våra, eller någon annans, data blir de facto-standard bara de sprids

Ifall AI-lösningar skapas på svenska data och resurser, precis som att ett flertal av de digitala assistenterna har tränats upp på Wikipedia, som bakom kulisserna följer tänket med datamängder med interna länkar, kommer lösningen att passa Sverige bättre. Detta är garanterat anledningen till att stora teknikorganisationer, som annars gärna håller sina hemligheter nära kroppen, faktiskt släpper avgörande tekniska ramverk och funktioner helt öppet. Google har sitt ramverk för maskininlärning Tensorflow bland annat, Facebook har släppt Prophet öppet för andra att kunna göra prognostisering, för att nämna två stora organisationers satsningar.

Därför är det väldigt olyckligt att vi i Sverige är så dåliga på att dela med oss ens inom landet med de resultat vi redan åstadkommit.

Sprida resultat som finansierats via skattsedeln?

Ett pikant exempel är Swelifes egna AI-projekt som stött på, vad som kan tyckas vara, onödiga hinder med att få använda data. Detta hos Inera när vi försökte få använda de texter som finns publicerade på 1177.se för att använda med AI-tekniken naturligt språk. Se inte detta som någon kritik särskilt mot Inera, mer som en inte helt oväntad friktion där Ineras månader långa behandling av frågan kan få framstå som ett målande exempel som säkerligen gäller många fler organisationer som är oförberedda på denna typ av frågeställning.

Det finns redan ett API sedan länge för artiklarna på 1177.se och innehållet lyder under lagstiftningen för allmän handling, vilket alla tycks vara medvetna om.

Vi fick dock inte lov att sprida dessa texter ens i workshops för att folkbilda om AI. Inte heller för att ge bort ett startpaket med data och exempelkod till de som på egen hand vill börja lära sig om AI i omsorgen, eller hälso- och sjukvården.

Detta är alltså av domänexpertis kvalitetsgranskad data som bekostats av skattebetalare. Borde inte det vara öppet? Eller åtminstone få användas fritt inom annan skattefinansierad verksamhet likt regionerna eller det av innovationsmyndigheten Vinnova finansierade innovationsprogrammet Swelife?

1177 Vårdguidens webbplats, 1177.se, drivs av Inera, som ägs av SKR, som ägs av våra kommuner och regioner. Det vill säga folket i förlängningen. En högst demokratisk organisation för allas vårt bästa.

Open by default

Allt som produceras av SKR och Inera borde väl per automatik erbjudas som öppna data om det inte finns starka skäl att låta bli. Om inte ens artiklarna på 1177.se lämnas ut öppet kan man undra hur vi ska kunna bli bäst på ehälsa till 2025? I dagsläget krävs det att man signerar avtal och att man inte sprider informationen vidare. Dessa hållhakar begränsar inte exempelvis Google som genom sin storhet kan hämta allt material direkt från webbplatsen. Det har Google redan en infrastruktur för att lösa, till skillnad från Bjurholms kommun som har lite drygt tvåtusen invånare, vilket nog innebär att de inte ens har en egen IT-chef i kommunen.

Det är lite konstigt att det som bekostats av svenska skattebetalare är lättare att använda för Google än våra egna entreprenörer, eller vård- och omsorgen själv.

Öppna data

Öppna data har en definition vilket innebär att det är lätt att kravställa. Definitionen är allmänt accepterad. Att det är webbens grundare, Tim Berners-Lee, som författade det hela gjorde det säkert enklare att nå en samsyn.

Frågan har varit aktuell i åtminstone 10 år. Bland annat hos Edelegationen, sedan Riksarkivet och finns numera hos DIGG. Dock är det dags att de organisationer som producerar viktiga datamängder öppnar upp dem per automatik och att eventuella begränsningar är välmotiverade och ganska sällsynta.

Det finns förstås ett flertal datakällor som vore intressanta att mixa ihop med det Inera producerar, bland annat:

  • Kolada – kommuner och regioner rapporterar jämförelsedata nationellt, men får de lov att själva återanvända varandras rådata för att göra egna analyser, exempelvis mellan två storstadsregioners sjukhus?
  • Kvalitetsregister – allt ofarligt från registren. Kanske på gruppnivå, kommunnivå, diagnosgrupper, etc. Karolinska har tidigare genomfört ett projekt om hur mycket abstraktion som behövs för att gömma en person i en grupp när det gäller vårddata.

Data anses vara vår nya naturresurs. Men om den inte är öppen och lätt att hitta kommer den ändå inte till användning.

Informationshantering

Även i mixen mellan juridik och hanterandet av information finns utmaningar, det uppmärksammades sommaren 2019 när amerikanska Cerner berättade att deras produkt Millennium inte i befintligt skick klarade av Patientdatalagen. Vilket, åtminstone i fallet för Västra Götalandsregionen, inte ens inbegrep användandet av något amerikanskt moln.

En annan utmaning är hur generell insamlad data är. Kan den jämföras med data från en annan verksamhet med till synes identiskt uppdrag? En som påtalat att insamlad data ofta är väldigt lokal är författaren av boken All Data Are Local: Thinking Critically in a Data-Driven Society (MIT Press, april 2019, ISBN: 9780262039666):

”[…] data are cultural artifacts, created by people, and their dutiful machines, at a time, in a place, and with the instruments at hand for audiences that are conditioned to receive them.”

– Yanni Alexander Loukissas

Loukissas poängterar att begrepp som ’data’ och ’data set’ enkelt kan förleda oss. Att vi kan tro att innehållet är komplett, avskiljbar från sitt sammanhang och portabel. Loukissas föreslår att vi tänker mer på ’data settings’, som i den plats och sammanhang där data samlades in.

”Aspiring to the ideology of big data means seeking to collect everything on a subject, downplaying the importance of data’s origins, and assuming that data alone can entirely supplant other ways of knowing.”

– Yanni Alexander Loukissas (All data are local, sida 16)

Och bara för att man har stora datamängder, populärt kallat ’big data’, betyder inte det att ens utmaningar med datakvalitet är lösta. Big data brukar beskrivas som att de har egenskaper som, på engelska, börjar på bokstaven ’v’:

  • Volume – faktisk storlek eller mängd som är svårhanterlig
  • Velocity – en hög hastighet eller snabbt genomflöde
  • Variety – stor variation vilket är komplicerat för att veta vad som avser exakt vad

Den första punkten har ibland skämtats bort med att allt som inte får plats i Excel är big data. Men big data, och dess användning, har också beskrivits som en känsla, nämligen att det är data som av olika anledningar framkallar ångest, både för den som ska hantera dessa data och den som förstår vidden av att ha sina personuppgifter däri.

Det är riskfyllt att anta att insamlad data är universell och jämförbar över diverse gränser. Den insikten minskar datas användbarhet. Om man ändå använt denna lokala träningsdata till en lösning kommer den inte vara fullt så pricksäker någon annanstans, eller i något annat sammanhang. Eller som antropologen Clifford Geertz uttryckt det (Available light (s. 140), ISBN: 9780691089560):

”Who knows the river better, the hydrologist or the swimmer? Put that way, it clearly depends on what you mean by ‘knows’.”

– Clifford Geertz

Hantering av data är inte ett särskilt nytt problem. Samma typ av fråga har inom epidemiologi funnits länge. Epidemiologer gör sig inte av med insamlade data efter dess första användning, samma data kan visa sig användbar även senare. Det finns exempel på dataset från 1940-talet som fortfarande används, där föräldrar till respektive data subject lämnat samtycke. Många av de föräldrarna är döda vid det här laget, men samma data används fortfarande.

AI för bättre hälsa är i viss mån bara epidemiologi i en uppskalad version. Skillnaden är att idag använder vi oss av big data som mental abstraktion.

Internationellt samarbete är inte helt enkelt – lättare inom EU

Om man ser på lagstiftning internationellt är det inte helt kompatibelt mellan olika länder. Det har förts en stundtals polariserad debatt om hur, om ens alls, europeiska organisationer ska kunna använda amerikanska företags molninfrastruktur, även om de har datacenter inom EU. Det här blir ett problem för AI när framgångsrika, utomeuropeiska, organisationer lyckas erbjuda en molninfrastruktur och ha en partnerorganisation som är beroende av dessa moln. På sätt och vis är denna diskussion ett bevis på Amazons, Googles, Microsofts, med fleras, framgångsrika utveckling av användbara AI-tjänster via molnet. Att det är enklare och billigare att förlita sig på deras infrastruktur än att ha något eget.

Dock blir det ett problem när lagstiftningen tycks kräva en högre grad av försiktighet och dessa molntjänster är svåra att undvika även via landets lokala konsultorganisationer. Hur kommer vi då snabbt till implementering när många tycks förutsätta att de får lov att använda tjänster som inte, enligt alla, rimmar med dataskydd, sekretess och nationell digital suveränitet?

SKR släppte under hösten 2019 Vägledningar för molntjänster ur ett svenskt perspektiv (vilket snabbt möttes med besvikelse (1, 2) på sina håll). Det är värt att komma ihåg att SKR är en medlemsorganisation där molnet inte enbart är en fråga om extremt känsliga patientuppgifter utan också om elever kan använda kontorsprogram i molnet och även fullständigt harmlösa uppgifter som allmänna handlingar som lyder under öppenhetslagstiftning, till exempel EU:s PSI-direktiv eller svensk offentlighetsprincip. Strax efter SKR:s vägledning släppte eSam en uppdatering av sin vägledning, Outsorcing 2.0, som SKR snabbt meddelade att man inte stod bakom.

Inte enbart en debatt i Sverige

Detta är dock inte en diskussion enbart i Sverige. I Nederländerna har man kommit fram till att de är tvungna att ha andra avtal med leverantörer vars juridiska hemvist kontrolleras utanför EU. Delar av Tyskland har kommit fram till att man inte ens kan använda standardapplikationer, likt Microsofts Office, som drar nytta av molnet.

I ett par tidigare utredningar, så kallade Data Protection Impact Assessments, DPIA, har Privacy Company kommit fram till att de nederländska myndigheterna inte kan använda Microsoft Office, varken i desktop-, moln- eller mobilversionerna”

Microsoft ändrar i Office för att få GDPR-godkänt (Computer Sweden, augusti 2019)

Mycket kan härledas till CLOUD Act och FISA. CLOUD Act handlar om utbyte av data för brottsutredning när data inte ligger på servrar rent geografiskt i USA, vilket är anledningen till diskussionen om att amerikanska myndigheter lagligen kan kräva ut data som finns på servrar placerade i EU, där servern kontrolleras av ett amerikanskt företag. Det amerikanska justitiedepartementet, DOJ, har beskrivit syftet med CLOUD Act så här:

”The CLOUD Act authorizes executive agreements between the United States and trusted foreign partners that will make both nations’ citizens safer, while at the same time ensuring a high level of protection of those citizens’ rights.”

The Purpose and Impact of the CLOUD Act, U.S. Department of Justice (April 2019)

CLOUD Act innebär ett samarbete om data mellan USA och andra länder, men kräver ett avtal mellan USA och respektive land, som Sverige exempelvis, för att gälla, och först då ska USA respektera respektive lands lagstiftning. Till försvar för CLOUD Act kan nämnas att både EU och USA har skrivit under den så kallade Budapestkonventionen vilken reglerar hur vi internationellt hjälps åt för att utreda cyberbrott. Den kritiskt lagde skulle säkert här åberopa risken för ändamålsglidning och att inte alla berörda parter brytt sig om ifall deras verksamhet följt lagstiftningen historiskt.

Till USA:s försvar ska också nämnas att de inte är ensamma om att ha denna typ av lagstiftning, något som Försäkringskassans vitbok om molntjänster tar upp:

”Flera stater, däribland USA, Kina och Indien, har numera lagstiftning som ger deras myndigheter rätt att under vissa förutsättningar ta del av data och uppgifter som lagras hos tjänsteleverantörer under sin jurisdiktion, även om lagringen sker utanför den egna statens territorium. Det har mot den bakgrunden uppstått en debatt om huruvida det är förenligt med svensk rätt och EU-rätt att använda sig av de molntjänster som erbjuds på marknaden.”

Vitbok: Molntjänster i samhällsbärande verksamhet – risker, lämplighet och vägen framåt (Försäkringskassan, november 2019)

Att Försäkringskassans generaldirektör i samband med denna vitbok går ut i Dagens Nyheter under rubriken “Sveriges digitala suveränitet hotas av IT-tjänster i molnet” beskriver ganska väl den aktuella diskussionen.

FISA är en reglering av amerikansk underrättelsetjänst. Kontentan av Edward Snowdens avslöjande 2013 var att den amerikanska underrättelsemyndigheten, NSA, medvetet valt att inte följa FISA.

”The European economy urgently needs an infrastructure that ensures data sovereignty.”

Peter Altmaier, finansminister i Tyskland

Tyskland och Frankrike tänker sig att man ska sätta upp ett EU-moln för att undvika problematiken med utomeuropeiskt kontrollerade moln helt och hållet. Projektet går under namnet Gaia-x och syftar till att uppnå ett europeiskt oberoende när det gäller molnleverantörer.

”Det som vilar i bakgrunden är samma diskussion som pågår i Sverige om hur de amerikanska molnjättarnas tjänster kan användas i offentlig sektor med alla deras sekretessbelagda uppgifter. Det finns en oro att amerikanska leverantörer kan tvingas lämna ut uppgifter till amerikanska myndigheter, enligt inhemsk lagstiftning som Cloud act och FISA.”

– Första steget mot ett EU-moln är taget – vad händer nu? (ComputerSweden, november 2019)

Kanske blir lösningen att inte ha internationella IT-jättar utan snarare segmenterat inom de olika jurisdiktionerna. EU har egna “IT-jättar”, USA sina, Kina sina bakom The Great Firewall of China, Ryssland sina, etc. Inom EU pågår bland annat ett arbete om att ta fram en certifiering av molns cybersäkerhet vilket kan tänkas underlätta valet av molnleverantörer framöver.

Allt detta tar mycket tid och energi från att faktiskt uppnå något.

Enklare är kanske att gå över till den amerikanska marknaden direkt: en stor befolkning inom en jurisdiktion med redan framgångsrika IT-jättar som erbjuder intressanta verktyg att tillämpa och att FDA är aktiva i frågan. Beroende på vad man är ute efter kan detta ses som en svaghet, att vi inte i Sverige kan erbjuda en hemmamarknad för validering, men för de som söker en öppning kan den amerikanska marknaden vara intressant som en möjlighet. Med en förhoppning om klarhet i Europa inom kort.

Linjera med de globala målen

De globala målen är en lista med mål för att främja hållbarhet. Det är FN:s utvecklingsprogram (UNDP) som tagit fram dem “för att avskaffa fattigdom, minska ojämlikheter, främja fredliga samhällen”.

Bara inom ganska uppenbara utmaningar, som jämlikhet, har allt från AI-forskningen till tillämpningarna på sina håll stora problem. I april 2019 belyste AINow detta med sin rapport Discriminating Systems: Gender, Race, and Power in AI:

”There is a diversity crisis in the AI sector across gender and race. Recent studies found only 18%of authors at leading AI conferences are women, and more than 80% of AI professors are men. This disparity is extreme in the AI industry: women comprise only 15% of AI research staff at Facebook and 10% at Google.“

Och då har man inte funnit några data om transpersoner eller andra könsminoriteter. Dock varnar man för att ambitionen att föra fram kvinnor inom teknikbranschen snedfördelar, att det kommer gynna vita kvinnor. Mångfald är mångfacetterat!

”The emergence of artificial intelligence (AI) and its progressively wider impact on many sectors requires an assessment of its effect on the achievement of the Sustainable Development Goals. Using a consensus-based expert elicitation process, we find that AI can enable the accomplishment of 134 targets across all the goals, but it may also inhibit 59 targets.”

The role of artificial intelligence in achieving the Sustainable Development Goals (Nature, januari 2020)

Många organisationer lanserar diverse grupperingar inom AI för att kraftsamla. Ett talande exempel var universitetet Stanford som under våren 2019 berättade om sitt nya Institute for Human-Centered Artificial Intelligence. Av de 121 fakultetsmedlemmarna som lyftes fram på deras webbplats var ingen mörkhyad. För diversifierad hudfärg och kön finns organisationer som försöker göra skillnad, bland annat Black in AI och Women in AI. Men det är värt att komma ihåg att det bara är två av många sorters bias.

Energiåtgången (går inte enbart åt fel håll)

Träning av en AI kräver en del energi. Karen Hao skrev en artikel i MIT Technology Review där undertiteln summerar problemet väl, nämligen att: “Deep learning has a terrible carbon footprint”. Djupinlärning råkar vara den variant som är populär den här nya vågen av AI. Det är just djupinlärning som kapitaliserar på de stora datamängderna det ofta talas om som en förutsättning, och risken är att de som följer AI-trenden ger sig in på just det spåret. Inte nog med att det blir en del koldioxid, det pressar upp priser på energimarknaden vilket i bästa fall har en positiv sidoeffekt att det finns pengar för att utveckla mindre smutsig energi.

Figur 6: Träningskostnad för bildklassificering genom ImageNet (källa Stanford DAWNBench)

Mer hoppfullt är att kostnaden för att träna AI-modeller i vissa fall sjunkit, ibland rejält. Ett exempel är en bildklassificeringsmodell som 2017 skulle kosta 2300 dollar att träna, istället, i september 2018, skulle kosta 12 dollar. Kostnaden halveras var 3,4:e månad, till skillnad mot Moores lag som tar 24 månader vilket är den skjuts AI kan räkna med tack vare utvecklingen av hårdvaran man tränar med.

Det går förstås inte att dra likhetstecken mellan kostnaden och förändrad hållbarhet, men åtminstone till viss del beror detta på effektivisering i form av att det går åt mindre beräkningskraft för vissa uppgifter, vilket leder till mindre behov av hårdvara och energi. Det leder inte nödvändigtvis till att det blir mer hållbart ur alla synsätt men kanske att vi kan få mer utkomst av det som investeras i AI i form av fler upptränade AI-modeller, exempelvis.

Möjligheter

Du som inte läste delen om styrkor, här kommer våra relativt omfattande register i repris. Vi har både kvalitetsregister, men också, mer utspritt tycks det, insamlade register som genom informationsklassning kanske kan spridas lite mer öppet. Är det ett mer heltäckande register över register vi behöver? Oavsett om de är öppet tillgängliga, med instruktioner om exakt vad som krävs för att komma åt även det som är sekretessbelagt.

Ett problem med sekretessbelagda uppgifter är när innovatörer och utvecklare inte ens känner till att de existerar eller hur dessa data ser ut. Hur ska de då veta hur de designar sin idé för att dra nytta av detta okända?

En möjlighet som de inom privat sektor frågat efter under intervjuerna runt landet är hur man kommer över annoterade data, eller data i största allmänhet. Vari problemet ligger är inte helt uppenbart. Vad krävs av startups för att få lov att återanvända känsliga hälsodata på samma sätt som akademin, eller hälso- och sjukvårdens kvalitets- och verksamhetsutvecklare redan gör? Är det en pedagogisk utmaning? Juridisk hinderbana? Men mest intressant, hur ska de gå till väga för att kunna bidra till bättre hälsa?

Den livrädde som ändå värnar öppenhet kan alltid falla tillbaka på syntetiska data. Alltså representativa data som inte avslöjar något känsligt men ändå hjälper till med förståelse, eller, rent utav, i större mängd kan användas för maskininlärning.

Sverige är överens – vi måste ställa om!

Det tycks finnas en bred förståelse för att hälso- och sjukvården inte kan fortsätta bedrivas som idag särskilt många år till utan att det kommer uppstå stora problem och massor av friktion. Det är ändå positivt, eftersom det tycks oundvikligt att hända.

En respondent uttrycker det på följande sätt: ”Vi står inför en kris nu och vi måste hitta ett sätt att klara oss, det är kanske en bra chans för AI att visa sin styrka nu.” Hen nämner vi kan spara både tid och pengar på att digitalisera bort ”tråkiga, långsamma, manuella processer inom vård”.

95% kan tänka sig att dela med sig av sin hälsodata

Genom sammanhållen journalföring kan en vårdgivare läsa uppgifter om patienter i en annan vårdgivares system. Detta kräver dock samtycke och en legitim anledning. En vårdgivare får idag inte lov att använda alla dessa uppgifter för att proaktivt träna upp en AI-tillämpning. Exempelvis att en region inkluderar allt det en kommun vet om samma individ. Det är problematiskt och inte i linje med varken individers hälsa eller en kostnadseffektiv vård. I en opinionsundersökning beställd av Forska!Sverige framkom dock att befolkningen/respondenterna till överväldigande del är positivt inställda att dela med sig, sammanfattat som att:

”95 procent av allmänheten är positiv till att dela sin hälsodata för forskning och hälsofrämjande syften.”

Forska!Sveriges opinionsundersökning 2019

Alternativt kan man läsa deras undersökning som att var tjugonde (5%) inte höll med om något av de fyra svarsalternativen om vilken sorts delning man var beredd att göra, och istället valde: “Tveksam / Vet ej / Inget av ovanstående”. Men hur många behöver gilla tanken för att det ska vara försvarbart att ändra lagstiftningen? Sverige har nog många lagar med betydligt mindre folkligt stöd än 95 procent och den breda viljan att dela med sig är bara en lagändring bort för att bli en stor styrka.

Självfinansierande AI-satsningar?

Bara i Västra Götalandsregionen (VGR) var det drygt 150 000 besök på sjukhusen där patienten uteblev 2019. Det leder inte bara till utebliven vård utan också till mycket extra administration för att boka om tider och förstås längre vårdköer. Det är möjligt att VGR har andra ännu större problem, men visst vore det spännande att börja försöka göra skillnad där man bara inom en region har potential att spara en halv miljard årligen, eller kunna erbjuda 150 000 besök som patienter faktiskt kommer till.

Med tanke på kostnaden, om man satsar en procent av denna befintliga kostnad till en innovativ lösning, då har man 5 miljoner kronor. Skulle det räcka för att spara in minst fem miljoner kronor i form av de uteblivna besök man redan lever med? Finns andra problem i vårdverksamheterna som har en enklare potential att lösas med AI-teknik?

9% av granskade vårdtillfällen ledde till undvikbara vårdskador

Att nästan var tionde granskat vårdtillfälle, av de som SKR granskade gällande Västra Götaland (2017), ledde till en vårdskada som kunde undvikas är uppseendeväckande och allvarligt, men säkert inte särskilt unikt för det området.

”Patienter, vårdgivare, forskare och företag måste få bättre möjlighet att bidra till insamling, användning och delning av data. Detta skulle minska antalet vårdskador i Västra Götaland väsentligt, samtidigt som vårdkvaliteten skulle öka och vården bli mer jämlik.”

Hälsodata avgörande för bättre vård och färre vårdskador i Västra Götaland (Lerums Tidning, juli 2019)

För hela Sverige handlar det om 110 000 personer varje år och till en kostnad om nästan nio miljarder kronor årligen. Låt säga att lagstiftningen uppdateras, vad skulle då vara möjligt om vården hade en helhetsbild både över patienten men också över relevanta och anonyma andra personer vid behov av jämförelse? Och vad händer om vi återinvesterar de nio miljarderna i förebyggande åtgärder och utveckling av vården? Exempelvis för implementering av den AI som redan bevisat sig?

Vad kan Sverige bli bäst på?

Med risk för att spekulera; när det gäller argument om Sveriges litenhet, att hela vår befolkning är en väldigt liten kohort jämfört med andra länder så är väl inte den frågan helt avgjord. Dels av anledningen att inte allt inom life science kräver den nivå av precision att det behövs tillgång till flera hundra miljoner individers journaler, dels att det görs ett antagande om att svaret på en individs hälsa ligger i data på gruppnivå. Visst hjälper det att ha enorma datamängder för att hitta en individ med motsvarande genuttryck, men med tanke på den energiåtgång det krävs för att göra en specialiserad AI-modell är det kanske en frågeställning för framtiden när AI kan tränas väsentligt mycket mer effektivt. MIT Technology Review visade att en träning av AI kan motsvara utsläppen för fem bilar under hela deras livsperiod. Då blir det inte hållbart för någon aktör att träna AI-modeller på individuell basis och det jämnar ut spelfältet till vår fördel.

På tal om specialiserad AI, att vi i jämförelse har en delvis homogen befolkning gör väl oss relevanta i vissa sammanhang? Åtminstone på delar av svenskättlingars medicinska digitala tvillingar. Exempelvis i ett köpstarkt USA där 4,5–8 miljoner svenskättlingar bor, beroende på hur man räknar.

Och hur mycket kan Kina exportera inom vård-AI? Har de svaret på Skelleftesjukan, som förutom att förekomma i Västerbotten och Norrbotten, också finns i Japan, norra Portugal och i Brasilien? Det får tiden utvisa.

Sverige kanske inte kan dominera en bred nisch inom AI i framtiden, men kan klara sig alldeles utmärkt på ett flertal mindre nischer där våra styrkor är svårslagna. Som vad vi nu skapar för AI-produkter av våra kvalitetsregister, den gen-pool som är dominerande här, en teknikglad och innovativ hemmamarknad, och vad mer?

Redan etablerad specialisering

Ett sätt att resonera kring vad det är lönt att satsa på är att utgå från Tillväxtverkets arbete med smart specialisering och den vilja respektive region i landet har kring sitt eget fokus:

”Smart specialisering handlar om att satsa på det vi kan bli bäst på. Allt för att stärka vår framtida konkurrenskraft.”

– Smart specialisering (Tillväxtverket)

Om vi filtrerar ut bara det som har med life science-liknande inriktningar att göra, eller där användandet av AI-tekniker borde kunna smitta av sig till life science, kommer vi fram till följande lista. Man kan få en känsla för vad mer som finns i närmiljön som kan förstärka ett branschöverskridande perspektiv och utbyte av erfarenheter.

Blekinge

  • ICT (Informations- och kommunikationsteknik)
  • Digitalisering

Dalarna

  • Hälsa & välfärd

Halland

  • Hälsa
  • IT

Skåne

  • Personlig hälsa

Stockholm

  • Hälsa, vård, omsorg

Uppsala

  • Life science
  • Tech-branschen

Västerbotten

  • Digitala tjänster
  • Hälsa och sjukvård
  • Life Science

Västmanland

  • Välfärd och hälsa

Västra Götaland

  • Life science

Örebro

  • Autonoma digitaliserade intelligenta system
  • Livsmedel i skärningen hållbarhet, hälsa, miljö & måltid

Östergötland

  • Simulering & visualisering

Östergötland är ett bra exempel på en region som trots att de inte specialiserat sig på något inom life science ändå verkligen är verksamma i sektorn. Genom sin specialisering på simulering och visualisering jobbar man med AI-tekniken datorseende. Bland det visuella märks de av bland annat genom AIDA, och projekt inom Visual Sweden, som är inne i life science som sektor.

Västra Götalands specialisering på textil kan tänkas långsökt för att vara relevant i detta sammanhang, men det finns gränsöverskridande projekt kring smarta textilier som kan diagnostisera bärarens hälsa. Inte heller tänker man kanske att hållbara transporter ska få folk att jobba med autonoma ambulansdrönare. Så ovanstående filtrerade lista avslöjar inte hela sanningen, men ger förhoppningsvis lite ledtrådar. Kolla in Tillväxtverkets webbplats för en komplett lista med specialiseringar.

Läkemedel och avancerade terapiläkemedel

Beroende på vad man inkluderar i läkemedel görs redan mycket med hjälp av AI-tekniker, men det finns förstås potential. Ett exempel vi stött på under intervjuresan runt landet var samarbetet mellan forskare på Högskolan i Skövde och AstraZeneca. Forskarna på högskolan beskriver det som att AI, och särskilt djupinlärning, har stor potential inom allt som slutar med *omics. Det vill säga bland annat genomics.

Inom området ATMP (Advanced Therapy Medicinal Product) finns förstås fler, bland annat Karolinskas Centrum för Cellterapi (KCC), som även erbjuder tjänsterna inom Europa.

En annan aspekt av läkemedel är frågan om följsamhet. Tar patienten sina läkemedel alls? I rätt tid och på rätt sätt? Detta är något för målsökande system (exempelvis förstärkt inlärning, där AI:n skulle försöka hjälpa/optimera patienten att göra rätt och AI:n får en belöning när det går bra och bestraffning när det blir fel), men också i kombination med spelifiering i patientens ände. Där spelarna är människan och maskinen som tillsammans ska försöka uppnå vissa mål. Precis som att det visat sig att de som är bäst på schack numera är varken maskin eller människa, utan kombinationen av båda två. Sveriges starka gamingsektor kan inte ha undgått någon med tanke på Mojang, King och många fler.

Att följa upp följsamhet med medicinering via nätet har funnits i olika tappningar i några år. En av aktörerna vi stött på är Mevia och på Vitalis 2018 demonstrerades en lite mer generell doseringsrobot som talade och larmade vid behov. Här kan utveckling inom hyper-personalisering göra maskinen mer hjälpsam och anpassad till individen. Så den inte skriker på användaren mitt i natten om något som kan vänta till ett bättre tillfälle.

Proteinveckning

Proteinveckning (eng. Protein Folding) är också möjligt att inkludera. Beroende på ett proteins tredimensionella form har det olika funktion. Med en mix av enorm datorkraft och maskininlärning kan nya former tas fram och automatiskt testas in silico, i en maskin alltså. Man låter maskiner ta fram tänkbara kandidater att utvärdera vidare.

Är det här vi drar nytta av vårt svala klimat och bygger datorhallar bredvid de norrländska älvarna?

Det pågår samarbete över internet, där även lekmän på området kan hjälpa till, i projekt som Folding@home där man kan donera lite beräkningskraft.

Inom läkemedelsområdet finns en etablerad väg till marknaden, vilket gör den internationella konkurrensen tuff. Sen kan man argumentera för att inte allt detta är AI eftersom AI-teknikerna ibland används för själva upptäckten snarare än att vara resultatet. Men med AI betraktat som ett digitalt verktyg kan det göra stor nytta för både befolkningens och enskildas hälsa.

Egenvård och prevention

Att vi i Sverige (särskilt södra delen och i Stockholm) har många ingenjörer som är bra på mobilteknik, i kombination med vår medicinteknikbransch, gör att det bör finnas en grundförutsättning för att skapa lösningar som stöttar medborgare och patienter i en hälsosam vardag.

Activity Recognition, och för denna skrivelses intresse specifikt är Human Activity Recognition (HAR) intressant. Man försöker få en maskin att “förstå” sammanhang genom en serie av observationer med hjälp av diverse sensorer. Inom omsorgen finns exempelvis armband som genom tidsserieanalys försöker lista ut om en hård smäll var att personen föll eller råkade slå handleden mot något. Är armbandet stilla för att personen gått och lagt sig eller har hen segnat ner på golvet och behöver hjälp?

Dessa lösningar letar mönster både från enskilda individer samt vad på gruppnivå som kan öka precisionen även på individnivå.

Svenskar pekas ofta ut som en teknikglad befolkning, vilket är en förutsättning för att vardagsteknik ska kunna utvecklas lokalt men också komma till användning, valideras och produktifieras. Området kallas ibland för välfärdsteknik och finns på flera håll i landet, bland annat AllAgeHub som jobbar med tillgängliga boendemiljöer för alla åldrar. En teknikglad befolkning ger också förutsättningar till patientdriven innovation inom egenvård.

Hot – hinder och utmaningar för att hitta en svensk nisch inom AI för bättre hälsa

En relativt vanlig kritik är att vårdsektorn inte är koordinerad eller har tillräcklig kompetens inom varken AI-tekniker i stort, eller specifikt inom delar som maskininlärning. Hotet är att Sverige blir en följare snarare än en ledare. Ett snarlikt svar som inkommit är att det tycks vara svårt för organisationer att samarbeta, att dela och skydda data.

En annan respondent konstaterar att ”alla problem och hot verkar vara organisatoriska och inte tekniska. Vi är inte duktiga på att ställa myndighetskrav eller nationella riktlinjer som måste följas.” Att vi har diverse strategier som ingen läser eller följer. Eftersom vi inte ”måste” händer inte så mycket tillräckligt fort och det beror på organisationsproblematik.

Ytterligare en respondent skräms av att USA och Kina satsar så mycket mer än vi gör i Sverige. Sverige tillsammans med EU behöver satsa mycket mer för att ha en chans.

En person pekar ut både ledare och vårdprofessionen som delvis skyldiga till att det inte händer tillräckligt mycket. Hen menar att beslutsfattarna inte förstår komplexiteten i att utveckla AI och att vårdprofessionen känner sig hotad av AI istället för att ta sig i kragen och kompetensutveckla sig.

Allt som kallas för AI kanske inte är AI?

Att vara inne i en hajp ställer till med problem. Det finns orimliga förväntningar på sina håll, men också att de som försöker rida på vågen inte alltid har förutsättningar att lyckas. Under 2019 har det kommit ut nedslående studier om hur liten andel av det som säljs in som AI ens innehåller något sådant.

”According to the survey from London venture capital firm MMC, 40 percent of European startups that are classified as AI companies don’t actually use artificial intelligence in a way that is “material” to their businesses. MMC studied some 2,830 AI startups in 13 EU countries to come to its conclusion, reviewing the “activities, focus, and funding” of each firm.”

Forty percent of ‘AI startups’ in Europe don’t actually use AI, claims report (The Verge, mars 2019)

Hur långt räcker djupinlärning?

Det talas också om begränsningarna bakom djupinlärning, som är den främsta tekniken bakom det nyvunna intresset för AI. MIT Technology Review skrev om det 2017 så här:

”Just about every AI advance you’ve heard of depends on a breakthrough that’s three decades old. Keeping up the pace of progress will require confronting AI’s serious limitations.”

Is AI Riding a One-Trick Pony? (MIT Technology Review, 2017)

Två år senare uttryckte Blaise Aguera y Arcas utmaningen på följande sätt, kommenterad av Wired:

”“We’re kind of like the dog who caught the car,” Aguera y Arcas said. Deep learning has rapidly knocked down some longstanding challenges in AI—but it doesn’t immediately seem well suited to many that remain. Problems that involve reasoning or social intelligence, such as weighing up a potential hire in the way a human would, are still out of reach.”

A sobering message about the future at AI’s biggest party (Wired, December 2019)

Arcas argumenterar för att det finns problem vi vill lösa som inte alls liknar det vi hittills lyckats använda djupinlärning till. Eller som en av de som pekats ut som ”gudfadern” av djupinlärning, Yoshua Bengio, uttryckte det på samma konferens:

”[AI] need much more data to learn a task than human examples of intelligence, and they still make stupid mistakes.”

– Yoshua Bengio, under NeuroIPS 2019

I november 2019 hölls ett seminarie på AI Innovation of Sweden i Göteborg. Där talade Claes Strannegård, biträdande professor vid avdelningen för Data Science och AI på Chalmers, i sin föreläsning Deep learning: advantages and drawbacks om de utmaningar som finns med djupinlärning så som det används idag. Det kan sammanfattas till följande, att djupinlärning:

  • Inte fullt ut kan automatiseras – det krävs experter som jobbar manuellt med att designa arkitekturen.
  • Klarar inte av att förklara sig – går alltså inte använda till beslut inom medicinen, finanser, trafik (och säkert fler reglerade branscher).
  • Är ibland väldigt kostsam.
  • Kräver väldigt många exempel för att lära sig – alltså inte one-shot learning.
  • Inte alls är mångsidig – principen är att ha ett skräddarsytt nätverk per problem att lösa, vilket ställer till det om man skiftar till ett annat dataset.
  • Ofta kräver extremt mycket energi.

Ett kompletterande perspektiv från en intervjuad medicinteknisk ingenjör är att om det AI:n gör verkligen är intelligent är den troligen olaglig att använda, åtminstone i EU. Detta med hänvisning till den AI som inte kan förklara sig, ofta kallad blackbox och att det ska vara nära på omöjligt att CE-märka sådant, samt att dataskyddsförordningen ställer sina krav på bevarandet av individers integritet och skydd mot automatiserat beslutsfattande.

Det är inte nödvändigtvis ett problem att djupinlärning i vissa fall börjar närma sig vägs ände. Den klagan är inte riktad mot life science utan snarare generell. Ibland fokuserar AI, och vetenskap i största allmänhet, på så kallade toy problem, mer triviala och isolerade problem än vad som är fokus vid en framtida implementation av ett initialt fynd. Om man ska tro författarna av boken Deep Learning for the Life Sciences (Av Bharath Ramsundar et al 2019, ISBN: 9781492039839) finns ett antal områden med potential för just djupinlärning. Bland annat mikroskopi, biofysik, biokemi som att förutspå toxicitet, genomik som vi tidigare nämnt, och mer, utöver mer generell djupinlärning på hälsodata från journaler.

Att inte vara nära en implementation

Andra inte direkt positiva resultat har gjorts av hur nära publicerade akademiska fynd inom AI är den verklighet som behöver AI-lösningar. Korean Journal of Radiology publicerade en artikel där man studerat flera hundra artiklar inom medicinsk bilddiagnostik. Dessvärre var det bara någon ynka procent som hade validerats och dessutom gick att använda till något:

”Of 516 eligible published studies, only 6% (31 studies) performed external validation. None of the 31 studies adopted all three design features: diagnostic cohort design, the inclusion of multiple institutions, and prospective data collection for external validation.”

Dong Wook Kim, et al. (Korean Journal of Radiology, februari 2019)

De allra flesta studierna var testprojekt som inte gick att tillämpa i verkligheten. Man drog slutsatsen att:

”Nearly all of the studies published in the study period that evaluated the performance of AI algorithms for diagnostic analysis of medical images were designed as proof-of-concept technical feasibility studies and did not have the design features that are recommended for robust validation of the real-world clinical performance of AI algorithms.”

– Dong Wook Kim, et al. (Korean Journal of Radiology, februari 2019)

Figur 7: TRL-skalan, en metod för att bedöma mognadsgrad på teknik.

Ett välvilligt sätt att se på AI-hajpen är att en stor del av det som blir rubriker inom AI är på en ganska låg nivå på TRL-skalan. TRL (Technology Readiness Level) är ett sätt att mäta hur moget något är. En låg mognadsgrad innebär en högre teknologisk risk. Skalan togs fram av NASA under 1970-talet för att ha ett unisont sätt att prata om teknisk mognad, vilket fungerar mellan olika sorters tekniker.

”A technology’s TRL is determined during a Technology Readiness Assessment (TRA) that examines program concepts, technology requirements, and demonstrated technology capabilities.”

Technology readiness level (Wikipedia)

Ifall en teknik inte har rätt förmågor bör den inte implementeras, det säger sig självt. Om man däremot ser AI-initiativen utifrån ett innovationsperspektiv är de nya, antagligen nyttiga men ofta ännu inte nyttiggjorda. Med hjälp av TRL, eller snarare TRA-träffar, kan man bedöma hur redo de är för implementering.

Ofta är det ganska långt kvar till implementation ute i verkligheten. Inget fel i sig, men det framgår inte alltid att det kan vara väldigt långt kvar innan en lyckosam lösning kan förväntas komma till användning.

Juridiska bekymmer med att jobba förebyggande

Swelife har lagt en del fokus under 2019 på att diskutera det kortsiktiga i tänket att Sverige lägger så mycket resurser på att folk är sjuka, när man borde lägga mer energi på att förebygga. Swelife pratar om detta som i de stadier av hälsa en människa kan vara i under ett flertal gånger av sitt liv:

Frisk – Risk – Sjuk

Men även om viljan finns att jobba förebyggande, att värna hälsa istället för att försöka bota de redan sjuka, så är inte lagstiftningen anpassad till detta.

Sommaren 2019 skrev tre regionstyrelseordförande, för Västra Götalandsregionen, Skåne samt Stockholm, ett inlägg i debatten i SKR-tidningen Dagens Samhälle – En modern vård kräver en modernare lagstiftning:

”Förutsättningarna för insamling av patientdata bör ändras för att i större utsträckning möjliggöra en utveckling av den förebyggande hälso- och sjukvården och utveckling av beslutsstöd. Vårdpersonal skulle på så sätt få hjälp att arbeta mer patientsäkert genom system som signalerar särskilda riskfaktorer för en patient baserat på tidigare vårdbesök.”

och

”Patientdatalagen kräver ett uttryckligt samtycke från patienten för behandling av andra vårdgivares uppgifter. Även med hänsyn till integritetsaspekterna är inte samtyckeskravet ändamålsenligt i förhållande till sjukvårdshuvudmännens skyldighet att ge en god och patientsäker vård.”

Något även några regioners chefsjurister ställde sig bakom i artikeln Chefsjurister kräver modern lagstiftning om patientdata i juni 2019, publicerad bakom Insiktmedicins betalvägg.

Specifik juridik: AI för bättre hälsa

Socialstyrelsens rapport (sida 39) tar från ett svenskt perspektiv upp frågan om lagar och regler och sammanfattar det ganska väl. Vad som kan betraktas som nyheter eller aktuellt i övergången till 2020-talet är nog främst det europeiska regelverket för CE-märkning av medicintekniska produkter. En av nyheterna det talats mycket om i detta sammanhang är hur programvara regleras, vilket inkluderar AI-tekniker som maskininlärning, datorseende, med mera. Regelverket gäller från maj 2020 och innebär ett större krav och mer arbete för alla tillverkare, importörer och distributörer av medicintekniska programvaror och informationssystem.

Ibland teoretiseras det att Sverige har en vilja att ”vara bäst i EU-klassen på att tolka GDPR på hårdast tänkbara sätt” vilket ställer till det för oss och sänker Sveriges konkurrenskraft på andra områden som behöver data.

”I Sverige hämmas nu utvecklingen av användningen av hälsodata av rådande regelverk. Juridiken runt hälsodata är komplex och svår att överblicka, vilket försvårar samarbetet mellan hälso- och sjukvården och akademin.”

Camilla Waltersson Grönvall, Marie Morell, Nicklas Sandström (Dagens Medicin, oktober 2019)

Författarna av ovanstående debattinlägg föreslår att Sverige borde dra lärdom av Finland som i mars 2019 antog nya regler. Dessa tillåter sekundär användning av data från social- och hälsovården inom forskning, utveckling och innovation. Finland fick på detta sätt en tydlig konkurrensfördel internationellt och ett försprång jämfört med Sverige.

Att regelverk kan behöva anpassas, på ett ansvarsfullt sätt, hålls även fram i den nationella strategin för life science som släpptes i slutet av 2019.

”I takt med att precisionsmedicin och AI införs i vården ökar behoven av policyutveckling. Det handlar om att anpassa regelverk, förhållningssätt och arbetssätt för att kunna dra nytta av teknisk utveckling och nya innovationer.”

En nationell strategi för life science (Regeringskansliet, december 2019)

I sammanhanget kan det vara värt att nämna att regeringen har en kommitté för policyutveckling, KOMET (Kommittén för teknologisk innovation och etik), som kontinuerligt ska leverera underlag inom bland annat precisionsmedicin.

Del 4: Problematisering och summering

Precis som väntat, när något är så eftertraktat som det löfte AI utlovar, uppstår det en angelägenhet och ibland oro över många frågor. Vilka är det som kan ställa om hälso- och sjukvården, omsorgen och hjälpa människor med egenvård? Är det rimligt att någon startup kan bli en hälsoteknikjätte och tvinga fram ett helt annat ekosystem, likt sociala mediers framfart, eller annonsföretaget Googles sätt att dra nytta av webben?

Nya företag, och de som inte är erfarna vid just hälsosektorn, riskerar förstås att sakna vissa erfarenheter som de etablerade betraktar som så uppenbar praxis att man inte nödvändigtvis kommer ihåg att kravställa det vid upphandling eller samarbeten. Brittiska NHSx, som jobbar med digitalisering av NHS, belyser i sin rapport Artificial Intelligence: How to get it right – Putting policy into practice for safe data-driven innovation in health and care att man behöver ett ramverk för styrning av AI. Där nämns bland annat behovet av en uppförandekod, nyttan av att använda öppna standarder, att algoritmer ska kunna förklaras, och mycket mer.

Ett flertal av respondenterna på enkäter för insamling av intryck, och de som intervjuats, har fullt legitimt ifrågasatt om det verkligen är AI som behövs. Ett exempel bland många är en persons insulinpump som inte klarar av att sluta varna mitt i natten om att insulinet kommer ta slut inom ett dygn. Ett meddelande som skulle göra mer nytta när personen vaknat. Många saker kräver bara bättre programmering, mer insikt om användarupplevelsen samt mer involvering av anhöriga. Utgå från behovet och inte allt för snabbt tro sig vara fullärd och erbjuda en lösning kanske ingen efterfrågar.

Amerikanska och kinesiska IT-jättar kliver in och styr upp healthtech?

En relativt vanlig idé om vad som komma skall är att “AI-giganterna” i USA och Kina snart kommer att komma ikapp hälsovården. Att de med sin djupa kompetens inom teknik och allt vad AI är kommer lösa både hälso- och sjukvårdens utmaningar – bara de får tillgång till tillräckligt mycket data.

Men varken USA eller Kina har samma samhällssystem som vi, vilket kan spela till Sveriges fördel när det gäller att erbjuda AI till övriga i Europa, andra kompatibla länder eller organisationer. Det uppskruvade tonläget kring AI på nationell nivå, påminner om kalla krigets tävlan, vilket verkar vara både överdriven och kontraproduktiv. Vilket man ganska snabbt stöter på vid kritisk läsning, och recensioner, av Kai-Fu Lees bok AI Superpowers – China, Silicon Valley, and the New World Order (ISBN: 9781328546395). Tankegången är inte nödvändigtvis konstig, men det är ett väldigt stort fokus på nationell nivå, när initiativ i andra sammanhang har mer med region att göra, eller branschkluster.

Försök till nyansering

Det räcker inte med att det i data finns evidens i form av mer eller mindre gömda mönster. Eller att AI:n är så mycket mer effektiv än människor på att hitta dessa mönster. AI kan visserligen lära sig själv saker redan nu, och vissa menar att utvecklingen sker i en exponentiell takt – det går redan jättefort och utvecklingstakten ökar för varje dag. Så varför skulle det ta mer än enbart lite tid för AI att utklassa människor i allt som har med hälsa och vård att göra? Det hänger ihop med vad man har för mål. AI, varandes den senaste vågen av digitalisering, är fortfarande blott en teknik som behöver frågor att besvara. Ställs inga intressanta frågor hittar man inget intressant.

Delvis har du svaret på detta under gapanalysens rubrik med fundamentala svagheter bakom djupinlärning, men här kommer lite fler försök till nyansering. Är AI för bättre hälsa ens ett teknikproblem? Man skulle kunna tro det när man läser om vad stora teknikbolag förväntas kunna åstadkomma. Dock, om man tilldelar dessa teknikbolag en annan branschtillhörighet än just IT så är blir det ofta marknadsföring, media eller e-handel. Det gäller både de amerikanska och kinesiska IT-jättarna.

De är framgångsrika på att med teknik hantera människors uppmärksamhet, visa annonser, föreslå produkter och liknande. Dessa egenskaper är inte oviktiga för att kunna skapa en bättre hälsa, men det är inte direkt den domänexpertis som saknas för att AI ska slå igenom stort inom hälsa som område.

En kritik mot de amerikanska IT-jättarna är att de i bästa fall är nybörjare inom hälsoområdet. Flera av dem har tidigare testat och misslyckats med sina hälsosatsningar. Även de kinesiska jättarna är små inom hälsa. Kritik kan riktas mot det kinesiska systemet i största allmänhet, och hur de investerar i AI, att det visserligen satsas mycket pengar men att det är så pass illa organiserat att resultaten inte alls motsvarar investeringen.

Ingen av de två länderna kommer att svära sig fri från att vara en stormakt inom AI. Det har de inget att vinna på. Alla andra har dock att förlora på att inte se en mer nyanserad bild.

Italien har fler inflytelserika AI-forskare än Kina…

En högst kvantifierad jämförelse mellan USA, Kina och EU har publicerats av tankesmedjan Center for Data Innovation i augusti 2019. I många fall är EU i klass med USA (som ofta leder i jämförelserna), ibland sämst av de tre. Det beror förstås också på hur man räknar och vad man anser kommer göra skillnad för ekonomin och samhället i stort. Till exempel hur stor chans att en AI-forskares insikter kan smitta av sig på den övriga befolkningens innovativa förmåga. Exempelvis gick det 23,2 ledande AI-forskare per miljon arbetare i EU 2017, medan det endast var 1,2 i Kina (Tabell 8).

Center for Data Innovation diskuterar också vilken kvalitet det är på AI-forskningen. Ett sätt att mäta är h-index som sätter ett värde på produktivitet och vilken påverkan man haft. Om man tar den grupp som internationellt är topp tio procent mätt på det sättet får man fram att:

”Through 2017, the European Union led with an estimated 5,787 researchers, ahead of the United States (5,158) and China (977). The United Kingdom (1,177), Germany (1,119), France (1,056), Italy (987), and Spain (772) combined for 5,111 such individuals.”

– Who Is Winning the AI Race: China, the EU or the United States? (Center for Data Innovations, augusti 2019)

Italien har alltså fler högkvalificerade AI-forskare än hela Kina. Varken det, eller att EU åtminstone, enligt ett sätt att se på saken, leder över USA, är något man hör ofta.

Är det en kapprustning likt kalla kriget?

Om man lyssnar på svenska AI-rådet är det absolut en kapprustning. Denna bild är de inte ensamma om, den är till och med ganska vanlig som förklaring till varför vi måste satsa.

”Sverige är just nu mitt uppe i ett kapprustning gentemot resten av världen vad gäller AI. I den nyligen publicerade AI rapporten av Vinnova, samt den kartläggning som sker i samband med den stora AI-satsningen från WASP, lyfts många av de hinder fram som i dag står i vägen när det kommer till att göra Sverige framstående och ledande inom AI. Det är tydligt att Sverige och Europa ligger långt efter andra regioner.”

Swedish AI Council

Men det finns också kritik mot dramaturgin att det är en kapprustning eller en tävling mellan nationer. Internt i Kina är det visserligen lite så som den kinesiska staten har riggat sitt system kring de pengar som delas ut – det hela blir en tävling mellan olika partitoppar i respektive kinesisk region. Mellan stater är kapprustningen däremot mer ett medialt narrativ än något som är enkelt att få bekräftat.

Inte ens mellan de ofta utpekade stormakterna inom AI, Kina och USA, tycks det vara någon kapprustning att tala om. För varför skulle då Baidu, Kinas ledande sökmotor, ingå i ett konsortium som skapats av amerikanska bolag där de utforskar teknologisk risk?

De som är duktiga på AI svär inte nödvändigtvis en livslång lojalitet mot en nation. Det är tydligt exempelvis om man tittar på alla gästforskare i ämnet som inte tycks begränsas av nationsgränser. En orsak till diskussionen om AI-utvecklingen som en kamp mellan nationer kan vara att det antas finnas en stor potential inom autonom krigföring. Dessutom sägs Vladimir Putin ha sagt att:

”It comes with colossal opportunities, but also threats that are difficult to predict. Whoever becomes the leader in this sphere will become the ruler of the world.”

Vladimir Putin (Russia Today, 2017)

Detta är något som framstående personer inom teknikbranschen tagit fasta på, bland annat Elon Musk. Fastnar man i ovanstående citat har man dock missat att Putin också sagt att de inte önskar att ha monopol på denna teknik om man nu uppnår en avgörande nivå först.

”If we become leaders in this area, we will share this know-how with the entire world, the same way we share our nuclear technologies today.”

Vladimir Putin (The Verge, 2017)

Om dessa uttalanden gjorts av Norges statsminister hade nog få reagerat särskilt starkt.

En initierad person som sågar hela diskussionen om att det är en tävling är AI-professorn Virginia Dignum:

”Press and policy makers are obsessed with the so-called AI race, and with Europe’s position in it. Just this week at Davos, US executives warned that China may be winning this supposed race. In another recent article, Bloomberg pointed out that countries are rushing to not be left behind.

[…]

Firstly, there is no race and secondly, if there is, it is the wrong race to run.

[…]

There is no race because of the very definition of a race: a competition of speed, against an objective criterion, usually a clock or to a specific point. In AI developments, we don’t have an end point! Nor do we have a specific time to stop. There is therefore no way to determine when and where someone will win this so-called race.”

Virginia Dignum, medgrundare av ALLAI

Ibland är kapprustningsdiskussionen en om vilken organisation som samlat på sig flest av åtråvärda yrkesgrupper. Inte heller när det gäller arbetsgivare är det väl rimligt att arbetskraften är särskilt bunden över tid. Var folk vill jobba är något som förändras. Och om trendbrottet för rapporten Best Places to Work 2020 håller i sig så kanske det blir svårare att anställa för exempelvis Google och Facebook, som bägge tappat placeringar när anställda själva sätter betyg på sin arbetsgivare.

Exponentiell utveckling? En AI-revolution?

Figur 8: Skillnad i utvecklingstakt mellan linjär och exponentiell utveckling.

Ett annat populärt narrativ är hur snabb utvecklingen inom AI är. Visst kan det kännas snabbt ibland, men är tempot verkligen exponentiellt? Marknadsvärdet på AI-startups har förstås varit exponentiellt under perioder av massiv utveckling. Frågan är om det är en revolution det handlar om, eller evolution?

Teknik tenderar att få en uppblåst värdering. När It-bubblan sprack 2002 fanns det orimliga förväntningar på saker som först femton år senare började fungera, till exempel hemleverans av matkassar.

”Despite the hype, artificial intelligence will take years to significantly boost economic productivity”

AI and Economic Productivity: Expect Evolution, Not Revolution (Jeffrey Funk hos IEEE Spectrum, December 2019)

Att ha uppblåsta förväntningar på vad vi kommer kunna uppnå med AI-teknik är inget nytt. Det har rent utav hänt flera gånger tidigare. AI-tekniken NLP har rötter från 1950-talets första hälft, från något som kallas Georgetown–experimentet. Det var en demonstration som syftade till att attrahera intresse och finansiering från den amerikanska allmänheten och myndigheter. Demonstratorn översatte 60 meningar på ryska till engelska genom att följa endast sex stycken grammatiska regler och den kände till ett ganska begränsat antal ord.

Optimismen var enorm! Man trodde att maskiner inom fem år skulle kunna översätta mellan alla världens språk, alltså 1960. Så blev det dock inte. Snarare är det nog först de senaste åren som vi börjat se att det fungerar rätt bra.

”The general reliability of expert judgement in AI timeline predictions is shown to be poor, a result that fits in with previous studies of expert competence.”

The errors, insights and lessons of famous AI predictions – and what they mean for the future (Stuart Armstrong et al, 2014)

En annan förutsägelse, som inte är utan kontrovers, är från Marvin Minsky återgiven i tidningen Life 1970:

”In from three to eight years we will have a machine with the general intelligence of an average human being. I mean a machine that will be able to read Shakespeare, grease a car, play office politics, tell a joke, have a fight. At that point the machine will be able to educate itself with fantastic speed. In a few months it will be at genius level and a few months after that its powers will be incalculable.”

Marvin Minsky, enligt artikeln Meet Shaky, the first electronic person (Life, 1970)

Författaren till artikeln, Brad Darrach, undersökte förutsägelsen om en maskin skulle kunna uppnå generell intelligens inom tre till åtta år med andra som var verksamma inom AI-fältet. Enligt Darrach tyckte många att Minsky var aningens optimistisk och många kontrade med att det nog skulle ta 15 år.

”When I checked Minsky’s prophecy with other people working on Artificial Intelligence, however, many of them said that Minsky’s timetable might be somewhat wishful — “give us 15 years,” was a common remark — but all agreed that there would be such a machine and that it could precipitate the third Industrial Revolution, wipe out war and poverty and roll up centuries of growth in science, education and the arts…”

– Brad Darrach, författare av artikeln Meet Shaky, the first electronic person (Life, 1970)

Inte heller 1985 hade vi en artificiell generell intelligens (AGI).

Oavsett hur man förhåller sig till om dessa förutsägelser är korrekt uppfattade så förekommer de med jämna mellanrum i media, böcker och presenteras på konferenser. Det underblåser en ohållbar hajp som måste balanseras förr eller senare. Detta är funktionen hos de återkommande så kallade AI-vintrarna.

Kritik mot överoptimism runt AI har funnits med nästan från början. En tydlig kritiker är Hubert Dreyfus som publicerat förlöjligande jämförelser med alkemi, samt genomgångar av vad maskiner inte kan förväntas klara av, under 1960- och 70-talen.

Hur stora landvinningar inom AI för hälsa har gjorts?

Figur 9: AI betraktat som ett landskap, där höjden representerar vad AI klarar av idag. (bild lånad av Linköpings Universitet).

Så frågan är om denna överoptimism även finns inom AI för bättre hälsa. Rubrikerna vi läser är tydliga. Gång på gång är maskiner bättre på något än människor, inte sällan bättre än de bästa experterna. Så vad är problemet? Varför har inte denna exponentiella AI-utveckling redan landat exempelvis i sjukvården?

En anledning är att när en AI i ett jämförande test mot exempelvis en hudläkare visar sig vara bättre på något så innebär inte det att hudläkaren kan ersättas av en AI. Det AI:n är bättre på är en ganska liten detalj i helheten, om än helt avgörande i vissa fall. Men en AI som är jättebra på att avgöra en viss typ av hudcancer kan inte på egen hand ta hand om allt det andra: Boka läkartid, träffa patienten, undersöka patientens vitalparametrar, hantera medicinteknisk utrustning för att ta bilden på huden, etc, etc.

”Paradoxen; hur kan det vara så att vi säger att AI är minst lika bra som mänskliga experter, å andra sidan så verkar AI inte ens vara användbar i dagsläget?”

– Claes Lundström, Almedalen 2019

Claes Lundström, professor på Linköpings Universitet och arenaledare på Analytic Imaging Diagnostic Arena (AIDA), pratade om detta under Almedalen 2019 som AI-landskapets vassa toppar under seminariet Hur kan AI gå från vision till verklig patientnytta? Att det är ett svårt och stort steg att ta AI från “skyddad forskningsverkstad” till “klinisk vildmark”.

AI-landskapet har toppar där AI är i klass med mänskliga experter, men landskapet är också väldigt glest och innehåller massor med saker som AI inte alls kan hjälpa till med. Därför är det svårt att direkt hoppa från en imponerande forskningsstudie till något som kan implementeras. Det räcker inte att jobba med att höja topparna, det måste också hamna i ett kliniskt och vardagligt sammanhang.

Var utförs vård-AI? I invånarens egna prylar eller i vårdens slutna system?

Merparten av utförd vård är egenvård, utförd av personen själv eller dess anhöriga. Men gränsen är inte knivskarp mellan vård och egenvård. Hälso- och sjukvården gör redan saker som stöttar egenvården, men erbjuder ibland också verktyg där personer med hjälp av AI-teknik i vardagen kan övervaka sin hälsa för att förebygga eller åtminstone lindra konsekvenser.

Ett sådant exempel, i form av en app i mobilen, är MoodMapper:

”Man kan klart visa att just förändringar i vardagsbeteendet speglar hur man mår. Till exempel om man håller på att bli deprimerad, så är det mer sannolikt att man ringer färre samtal och kanske rör sig mindre. Om man däremot är manisk är det mer sannolikt att man har fler kontakter.”

– Ulla Karilampi, artikeln Mobilapp ska hjälpa bipolära (Göteborgs-Posten, juli 2019)

Figur 10: Spetspatienten Hanna Svensson illustrerar var hennes data finns. (Bild lånad av H Svensson)

”Visste du att sjukvården sparar 0,03% av mitt sjukdata. 99,97% ser de sällan, och de finns inte i sjukvårdsdatat, de finns bara i egenvård.“

Hanna Svensson (Twitter, juni 2019)

Om man utgår från Hannas exempel kan man fråga sig om det alltid är med sjukvårdsdata där magin inom AI händer. Behövs det ett samarbete om patientens data, eller kanske klarar sig patienten rätt bra utan sjukvårdsdata när det gäller AI?

Säljpitchen för sjukvårdsdata är att det är kalibrerad och kontrollerad utrustning som hanteras av professionella användare. Men det är i en för patienten onormal miljö och inte under vardagliga förutsättningar. Dessutom riskerar det att vara något missvisande då det är stötvis inhämtad information och åtminstone i vissa sammanhang inte direkt stora data (vilket modern AI ofta kräver).

Ett annat sätt att gruppera informationen om någons hälsa är att fråga sig vem som kontrollerar den eller har tillgång till den. Här finns massor med aktörer. Utländska teknikjättar, företag som tillverkar sensorer eller mobiler, nischade hälsobolag som PatientsLikeMe, konsumentvänliga genetikföretag som 23andMe, försäkringsbolag, träningsskoföretag, och entusiaster som spetspatienter och de i quantified self-rörelsen.

Djävulens advokat skulle ofta kalla de flesta av dessa AI-lösningar för tillämpad statistik eller matematik. Förmodligen helt korrekt kritik. Samtidigt är allt en maskin utför en matematisk beräkning, det är trots allt det enda sättet en dator kan utföra något över huvud taget.

Kryptering, avidentifiering och pseudonymisering

Ibland pratas det om tekniker som kryptering, avidentifiering eller pseudonymisering. De som ser risker med detta brukar påpeka att kryptering kan ha brister, eller bakdörrar, som uppdagas först senare och då gör allt innehåll okrypterat. Sen hägrar kvantdatorer vid horisonten, vilka spås kunna knäcka åtminstone vissa krypton mycket enklare än vad som är möjligt idag. Men det tycks finnas konsensus i hur kryptering utformas för att vara utom räckhåll för det som kvantdatorer gör bättre än vanliga datorer. Ansträngningarna att skapa kvantsäker kryptering görs bland annat av det öppna projektet Open Quantum Safe project.

En kritik mot detta är att åtminstone mot några (som i framtiden kan visa sig vara), särskilt viktiga personer, kan det vara värt att hamstra information även om den vid insamlingstillfället är omöjlig att knäcka. Om denna sorts intresse från exempelvis underrättelseorganisationer kommer drabba gemene man, på samma sätt som världsledare likt Angela Merkel, återstår att se.

En försvårande omständighet ligger i påståendet att ”internet aldrig glömmer”. Att komma över äldre data där det går att knäcka kryptot kanske blir en realitet i framtiden som drabbar många fler än de mäktigaste.

Knäcka kryptering är inget nytt. Kanske den mest kända knäckningen var när bland annat, AI-förfadern och geniet, Alan Turing bistod i att avkryptera tyskarnas radiokoder under andra världskriget.

Inte heller avidentifiering är en magisk lösning på problemet, vilket Andy Coravos på firman Elektra Labs, specialister inom biomarkörer, konstaterar (tillagd fetning):

”How many people here think you could de-identify your genome?”

”Probably not, because your genome is unique to you. It’s the same with most of the biospecimens coming off a lot of wearables and sensors — I am uniquely identifiable with 30 seconds of walk data.”

What if AI in health care is the next asbestos? (STAT)

Figur 11: Webbplatsen xkcd skämtar i vanlig ordning om teknik.

Informationssäkerhet är ett svårt ämne och något som behöver diskuteras av fler delar av samhället än de som är experter inom IT-säkerhet. Vad anser vi är en acceptabel risk?

För data som inte över huvud taget har ett skyddsvärde kanske man kan dra nytta av dessa satsningar på lagrings- och beräkningskapacitet som andra organisationers datacenter innebär. Samtidigt har ingen av de som intervjuats uttryckt detta som ett trängande behov. Snarare att “när det behovet uppstår har vi redan kapacitet och jag vet vem internt som jag ska prata med”. Det är inte helt enkelt att se om all diskussion om behovet av publika moln, som driftas av tredjeparter, eller utomeuropeiska IT-jättar, har en faktisk efterfrågan när det kommer till AI för bättre hälsa.

”Anonymity is a shield from the tyranny of the majority”

– John Paul Stevens, U.S. Supreme Court

Vid de senare årens kända dataläckor har det ibland gått att koppla vad som i ett enskilt system verkar vara anonyma data till individer, genom att lägga till fler datakällor. Något Claudia Diaz under en föreläsning, på ett Chalmers-seminarium om digitalisering 2018, poängterar inte underlättas av internets existens då data flödar lättare än någonsin tidigare.

Diaz ger i föreläsningen exemplet att boken Frankenstein ursprungligen publicerades anonymt, eftersom det kunde vara dålig publicitet på 1800-talet att författaren var en kvinna- på tal om majoritetens tyranni. När det väl klargjordes att författaren var Mary Shelley var anonymiteten som bortblåst för gott. Och idag, när över halva världens befolkning har tillgång till internet, sprids information om en bruten anonymitet snabbare och enklare än någonsin.

Man behöver förstås komma ihåg att all informationshantering innebär risker. Alldeles oavsett om man använder tredjelands molnföretag, eller har sin egen serverhall i ett bombsäkert skyddsrum eller faxar patientjournaler.

Eller som Anna Troberg, dåvarande partiledare för “enfrågepartiet” Piratpartiet, skrev 2013:

”Först och främst, är historien ytterligare ett bevis på att alla databaser läcker. Ibland sker det via medvetna läckor, ibland på grund av slarv, ibland genom att de blir hackade utifrån, det enda man kan veta tämligen säkert är att de kommer att läcka förr eller senare. Om det inte redan skett, så är det bara en tidsfråga innan en databas som innehåller information om just dig också läcker. Det kan vara bra att ha i bakhuvudet för oss alla.”

Medierna blir till offentlig skampåle (SvD, december 2013)

Sedan ovanstående skrevs har bland annat 2,7 miljoner samtal till 1177 Vårdguiden legat oskyddade mot internet. I bästa fall har inga fler än journalisterna på Computer Sweden laddat ner några inspelningar.

”[…] ett av de största haverierna någonsin när det kommer till svensk patientsäkerhet och personlig integritet. På en öppen webbserver, helt utan lösenordsskydd eller annan säkerhet, har vi hittat 2,7 miljoner inspelade samtal till rådgivningsnumret 1177. Samtalen sträcker sig tillbaka till 2013 och det handlar om 170 000 timmar av känsliga samtal som vem som helst har kunnat ladda ner eller lyssna på.”

2,7 miljoner inspelade samtal till 1177 Vårdguiden helt oskyddade på internet (Computer Sweden, februari 2019)

Detta är dessvärre långt ifrån det enda exemplet där sjukvårdsdata sprids. Mest frekvent, eller mest uppmärksamhet, tycks det vara när en individ inom vården fälls för obehörig läsning av någons journal.

Visst behöver överträdelser likt de enskilda individer kan begå beivras. Men det är en enorm skillnad i storskalighet när en individ blir påkommen med att missbruka sin behörighet inom vård och omsorg, det drabbar en eller ett fåtal individer. Jämför det med att massor av människors känsliga uppgifter finns som en handelsvara på den mörka webben eller blir allmänt tillgängliga likt det som hände 2014 när massor med kändisars privata bilder läckte ut på nätet.

Med centralisering av hälso- och vårddata kommer ett enormt ansvar. Kanske kan AI-tekniker som federerad inlärning underlätta, att var och en behåller sina data. Men då måste alla aktörer som vill främja hälsa verkligen samarbeta – på riktigt!

Det är mycket fokus på de juridiska utmaningarna när det gäller AI generellt, men förstås också när det ska tillämpas inom hälso- och sjukvård med tanke på de särskilt känsliga personuppgifterna det innebär. I vissa fall kanske det inte är utmaningar utan snarare en avsaknad av samsyn eller prejudikat som oroar. När det gäller juridik inom vården är Swelifes rapport Personcentrerad data och juridik från 2018 läsvärd för en överblick. AI-juridik handlar inte enbart om användandet av utländska moln, även om man ibland kan tro det, utan också om patientsäkerhet, patientdata, transparens, medicintekniska regelverk, bland annat.

Det som nämnts under intervjuerna runt landet är till stor del samstämmigt. Budskapet är “ge oss arbetsro”. Ibland betyder det pengar, annars att man får stöd med det medicintekniska regelverket för mjukvara, både på hemmaplan och när det gäller den amerikanska marknaden.

Den stora frågan är om värdet av AI för bättre hälsa kommer att leva upp till förväntningarna. Det är inte helt självklart. Dock är det tydligt att all energi som nu investeras i AI kommer att göra nytta i en hälso- och sjukvård som står inför stora utmaningar, bland annat på grund av de demografiska förändringarna.

Avslutningsvis…

Ett genomgående tema i denna rapport är att det finns enorma förhoppningar på vad AI-tekniken kan bidra med, att det absolut finns utmaningar, men att den nya varianten av AI lyser med sin frånvaro i en klinikers vardag.

Att det är på det sättet beror på flera saker, bland annat att de regelverk som finns inte är helt anpassade eller etablerade i form av tydliga prejudikat. En annan orsak är att den AI-teknik, som är bättre på något än mänskliga experter, inte är mångsidig nog att ta sig ut i en klinikers vardag, eller en egenvårdande invånares heller för den delen.

Det är inte heller enkelt att jämföra vad en organisation anser är AI med någon annan då det inte finns någon etablerad, entydig, definition. De som arbetat med AI för bättre hälsa i årtionden har varit inne på en annan generation av AI, så kallade expertsystem. Medan den nya vågen av AI, som inleddes 2012, är baserad på djupinlärning. Med andra ord är det extremt sällsynt att någon har erfarenheter av “dagens AI” som sträcker sig särskilt långt tillbaka.

Men det beror förstås på din definition av AI. De som inkluderar olika former av automatisering, bland annat Robotic Process Automation, kan spåra sina erfarenheter en bit in på 1900-talet. Med en så pass inkluderande definition har undertecknad jobbat med AI sedan 1997, fast jag skulle hellre vara öppen med att det var mjukvaruagenter i Lotus Notes jag byggde. Det tycker åtminstone inte jag är AI.

Januari, 2020

Marcus Österberg, för Swelife AI-projektet

Appendix

Följande är en förteckning över de resurser som upptäcktes och skapades under arbetets gång.

Bilagor:

  • Bilaga 1: workshop- och självstudiematerial för en inblick i teknik bakom AI
  • Bilaga 2: datakällor, tävlingar och mera med relevans till AI för bättre hälsa

Tävlingar

Man kan tävla i data science. Genom att ta fram den bästa lösningen på ett problem baserat på en datakälla som sprids öppet. Nedan är några tävlingar och arrangörer:

  • The ISIC Challenge – detektera hudsjukdomar
  • BraTS – multimodal hjärntumörsegmentering
  • Turingtestet / Loebnerpriset – att få en människa att tro den pratar med en människa (trots att det är en maskin i andra änden)
  • Kaggle – arrangör av många olika tävlingar, ofta om hälsa

Datakällor

Det finns massor med olika datakällor. Vissa har en öppen licens som innebär att man får göra vad man vill med innehållet, andra är öppet tillgängliga men inget man får vidareutnyttja kommersiellt. Vissa datakällor är mer kända, ibland kallade referensdatakällor, då de används som just referenser.

I bilaga 2 hittar du en längre förteckning vilket är intressant om du vill se datakällor om demografi eller sånt som kan användas för sentimentanalys, etc.

Referensdatakällor:

  • HAM10000 – bilder inom dermatologi
  • ASAN Dataset – klinisk diagnos baserat på bilder
  • CAMELYON – bilder för att upptäcka metastaser i bröstvävnad

Övriga datakällor:

  • ISIC (International Skin Imaging Collaboration) – projekt för att detektera hudcancer
  • CheXNet – Stanfords dataset för att identifiera lunginflammation genom thorax-bilder
  • healthdata.gov – samling datakällor från amerikanska myndigheter
  • MIMIC Critical Care Database – Samling dataset med hälsodata från 40 000 patienter. Bland annat demografi, vitalparametrar och läkemedel.
  • STRIDES – biomedicinska data
  • NIH Data Sharing Repositories – hälsodatakällor som finansierats av NIH (USA:s National Institute of Health).

Bilaga 1: Workshop- och självstudiematerial för en inblick i teknik bakom AI

Kul att du vill lära dig lite om praktisk AI och specifikt maskininlärning!

Om den tekniska miljön du behöver

Enklast är att använda nättjänster för de tekniska övningarna, många har en gratisversion som duger gott. Exempel på sådana är Microsoft Azure Notebooks och Python Anywhere.

En mer komplicerad variant är att installera saker på din dator. Om du väljer att installera saker på din dator så är det enklast att först installera Anaconda och sedan funktionen Jupyter Notebook vilket du hittar när du startar Anaconda första gången.

I det här materialet kommer vi utgå från Microsoft Azure Notebooks eftersom det går snabbt att komma igång med och ingår i den Microsoft-prenumeration som är vanlig inom många organisationer.

Steg 1: Logga in (eller skapa ett gratiskonto hos Microsoft Azure Notebooks)

Börja med att i webbläsaren gå till följande adress:

Figur 12: Uppe i högra hörnet kan du logga in (“Sign In”). På samma plats skapar du ett nytt konto.

Figur 13: Logga in antingen med ett jobbkonto, skolkonto, privat för exempelvis Hotmail, eller skapa ett nytt konto.

Figur 14: Om du redan är inloggad mot någon annan Microsoft-tjänst kan du uppmanas att fortsätta med det.

Om du har någon Microsoft-prenumeration via jobb eller skola kan du ofta logga in med det användarkontot. Det upptäcker du om du skriver in den e-postadressen vid inloggning då du kommer skickas vidare till organisationens egen inloggningssida. Kör du fast kan du behöva prata med en IT-administratör eller skapa ett privat konto om du inte redan har ett.

Figur 15: Det kan vara så att du mellanlandar på en sida som denna, så här ser det ut för de som jobbar på Västra Götalandsregionen.

Figur 16: Du kan få upp frågor som dessa. Oklart vad man ska välja då både ja och nej tycks leda till samma resultat.

Har du inget konto via jobb eller skola kan du fortfarande ha ett privat, exempelvis för Microsofts mejltjänster Hotmail och Outlook.com, dessa inloggningsuppgifter går också bra att använda på Azure.

I annat fall behöver du då skapa ett nytt konto först.

  • Om du inte redan är på https://notebooks.azure.com skriver du in den adressen i webbläsaren.
  • Klicka på länken “Sign in” uppe i högra hörnet och följ guiden.

Du kommer troligen uppmanas att skapa en profil på Azure Notebooks om detta är ditt första besök på tjänsten.

Steg 2: Gör en kopia av startpaketet

Det finns ett startpaket att utgå ifrån. Det är särskilt lämpligt om du är oerfaren när det gäller programmering, inte har använt notebooks tidigare eller vill ha ett facit att kika på vid behov.

Figur 17: När du hittat ett projekt du vill fortsätta med kan du trycka på knappen “Clone” uppe i högra hörnet av webbläsaren.

Klona ditt eget startpaket till ditt konto så här:

  • Gå till adressen https://notebooks.azure.com/marcusosterberg
  • Leta upp projektet “Swelife AI workshops” och klicka på det.
  • Klicka på knappen “Clone” och välj namnet på ditt eget projekt, du måste inte ändra något.
  • Klicka på “Clone” för att spara en kopia av startpaketet till ditt eget konto.

Steg 3: Starta din notebook för första gången

Nu har du din kopia/kloning av projektet på ditt eget konto. Du har två olika sorters filer. De numrerade filerna som ligger i roten är dina övningsfiler när du följer med en föreläsning med detta material eller studerar detta material självständigt. Dessutom har du en mapp som heter “facit”. Där ligger filer med samma filnamn som övningsfilerna, men dessa är färdiga och kan fungera som ett facit för dig om du kör fast.

För att starta din första notebook:

  • Klicka på “01-intro-till-python.ipynb” och ett nytt webbläsarfönster kommer öppnas.

Nu har du en så kallad Jupyter Notebook framför dig, framöver enbart kallad notebook.

Figur 18: Så här kan en notebook se ut. Man blandar kod (i grå rutor/celler) och dokumentation (i vita rutor/celler) för att enkelt strukturera upp det man vill ha gjort på ett begripligt sätt.

Notebook är en utvecklarmiljö du kan köra direkt i din webbläsare. I det här fallet körs din kod i Microsofts tjänst Azure för enkelhetens skull men det skulle lika gärna kunna vara på din arbetsplats, skola eller egen dator.

En notebook är uppdelad i så kallade celler. En cell är en ruta vars bakgrundsfärg är antingen vit eller grå. En vit cell innehåller dokumentation, i en grå cell skriver vi in programmeringskod.

Figur 19: Dubbelklicka på de vita cellerna och lär dig lite om dokumentationsspråket Markdown.

Om du dubbelklickar på en vit cell kommer den gå över till redigeringsläge. De vita cellernas innehåll skrivs med ett dokumentationsspråk som heter Markdown. Man behöver inte lägga någon energi på det, se det mer som ett snabbt sätt att skriva anteckningar intill din kod.

För att komma ur redigeringsläge klickar du på knappen “Run” i verktygsfältet eller tangentbordskombinationen Ctrl + Enter.

Samma sak för att köra eller testa en snutt kod du skrivit i en grå ruta, då trycker du på “Run” eller tangentbordskombinationen Ctrl + Enter.

När du senare vill skapa dina egna notebooks kommer du skapa dina egna celler (genom verktygsmenyn Insert Insert cell below, eller above). Kom då ihåg att kod skrivs in i grå celler, dokumentation i vita celler. För att byta markerar du cellen du vill ändra och sedan klickar i rullgardinsmenyn i verktygsfältet.

Figur 20: För att byta celltyp från Markdown (för dokumentation) till Code (för Python-kod) klickar du först på den cell du vill ändra. Då ser det ut som för ”1. Skriv ut något på skärmen” och sedan klickar du på rullgardinsmenyn i verktygsfältet.

Intro till programmering – på två minuter

Vill du instruera en dator behöver du programmera den. Programmering är alltså att sammanställa en mer eller mindre lång lista med instruktioner du vill få utfört.

En utmaning med att programmera är att datorn gör precis som den blir tillsagd. Det kan låta som en bra sak, och så länge du skriver “rätt” programmeringskod är det bra. Men det gör att du arbetar på maskinens villkor, på ett språk som är mer anpassat efter maskinens behov än dina.

Det finns många olika programmeringsspråk. De olika språken har olika styrkor och svagheter. Några vanliga programmeringsspråk i Sverige är C#, Java, C++ och PHP. Just när det gäller hantverket runt maskininlärning är det vanligt att folk använder språket Python. Vi kommer att skriva med Python.

Intro till maskininlärning – på sju minuter

Klassisk programmering kallas oftast för systemutveckling eller computer science i akademisk miljö. När det gäller maskininlärning är det istället datavetare eller data science. Det är alltså en skillnad på dator och data, där man historiskt har instruerat datorer genom programmering och att en datavetare idag istället fokuserar på den data som datorn behöver för att “programmera sig själv”.

Maskininlärning kan alltså förenklat förklaras som att man hjälper en maskin att bygga upp erfarenheter baserat på information man matar den med. Så kallade träningsdata. Dessa data kan vara att erbjuda mängder med bilder som antingen föreställer äpplen eller apelsiner. Det maskinen lär sig är vilka egenskaper (vilket kallas features inom maskininlärning) som är typiska för ett äpple och vad som är typiskt för en apelsin.

Övervakad maskininlärning

Övervakad maskininlärning (eng. supervised machine learning) betyder att man tillsammans med sin träningsdata berättar vad som föreställer äpplen och vad som föreställer apelsiner. Det kallas för att informationen är annoterad, att där finns vägledande anteckningar. Det finns alltså en lärare som hjälper maskinen att lära sig.

Maskinen kommer ganska snart att hitta en särskiljande egenskap baserat på den data den får. Exempel på särskiljande egenskaper är om tyngden på olika sorters frukter är avgörande, eller att maskinen inser att en slät yta och en liten mörk pinne som sticker ut är gemensamt för många äpplen och att både en brandgul och gropig yta brukar man se på en apelsin.

Poängen med detta är att senare kunna skicka en, för maskinen, helt okänd frukt och be maskinen säga om den tror det föreställer ett äpple eller en apelsin. Den här maskinen skulle alltså ha en snäv kunskap endast om två sorters frukter, samt att den inte har mer kunskap än de bilder den sett under sin träningsfas.

Oövervakad maskininlärning

Till skillnad mot versionen som är övervakad har man ingen pedagogisk lärarfunktion vid oövervakad maskininlärning (eng. unsupervised machine learning), vilket kanske namnet avslöjar. Maskinen måste alltså på egen hand se mönster och försöka lista ut vad det är för information. Det kan vara fynd som att hitta avvikelser i siffror, som att en person haft en period av avvikande pulsdata, eller regelbundenheter. Maskinen kan lätt upptäcka sådant i en enorm mängd med siffror, men då den inte är övervakad kan den inte beskriva vad den hittat eller en trolig orsak bakom avvikelsen.

Ett sätt att se det på är att man med oövervakad maskininlärning är öppen för vilka fynd som finns i en mängd data, medan man med övervakad på förhand bestämt sig exakt vad man är ute efter.

Det finns fler varianter av maskininlärning vi inte kommer gå in på. Googla på reinforcement learning, transfer learning eller deep learning, bland annat, för att läsa mer.

Vad är skillnaden mellan mer traditionell statistik och maskininlärning?

Figur 21: Regel och Svar har olika roller beroende på om man jobbar med statistik eller maskininlärning (med inspiration från Alexander Scarlat)

Det finns flera skillnader och likheter mellan traditionell statistik och maskininlärning. Med risk för att förenkla det för långt är en av de största skillnaderna vilken roll de matematiska reglerna fyller. I ovanstående figur ser du överskådligt hur statistiska modeller är uppbyggda efter en viss specifik regel. Man börjar med data, alltså någon form av input, och en regel för att få ett svar på något. Ett svar kan till exempel vara procent, sannolikhet, eller odds för något. Maskininlärningsmodeller har däremot data och svar som startpunkt och målet med modellen är istället att få fram en regel. Maskininlärning och statistik är besläktade, men kan ha olika utgångspunkt och mål.

Maskininlärning handlar om att upptäcka regler som kan tillämpas, medan statistik är att tillämpa regler man redan känner till.

Övningar

Du behöver ha skapat ett konto hos Microsoft Azure Notebooks för att kunna köra övningarna. Om du inte gjort det så se tidigare avsnitt.

Övning 1: Grundläggande programmering

Det finns ett antal grundkunskaper man behöver ha lite koll på. Vi kommer gå igenom dem i denna övning för att i nästa övning fokusera på maskininlärning.

  • Om du inte redan har den första notebooken öppen så öppna den nu, den som heter “01-intro-till-python.ipynb”.
  • Om något inte verkar fungera kan det vara värt att klicka på diskettknappen i verktygsfältet, stänga ner och börja om.
  • I projektvyn kan man få statusinformation och vid behov starta om den tekniska miljön bakom projektet.

Eftersom det är en gratistjänst kan man dessvärre inte räkna med helt felfri drift, då borde man skaffa sig ett betalkonto. Om du har möjligheten att installera Anaconda och Jupyter på din dator är det också ett alternativ om Azure Notebooks strular tillräckligt mycket.

Figur 22: Om det strular för dig och du vill felsöka är projektets status värt att kolla in. När det funkar ska det i grönt stå “Running on Free Compute”.

Du kommer i respektive notebook få lite vägledande information i de vita cellerna, men de är främst där för att hjälpa dig hitta rätt grå cell.

1.1 Hejsan världen

Figur 23: För att kunna skriva kod ställer du markören i ett grått fält. Aktiva fält får en ram runt sig.

Klicka i det första grå fältet. Nu kommer markören blinka där och du ska också få en grön ram som visuellt visar var i din notebook du är aktiv.

Den kod vi ska skriva är klassisk. Vi ska göra minsta möjliga program och det brukar gå ut på att få maskinen att säga hej till världen – Hello world!

Så nu skriver du det första programmet i den grå rutan, nämligen:

print(“Hello world!”)

Du säger alltså åt maskinen:

  • Att printa något, skriva ut på skärmen.
  • Sen är det början på en parentes.
  • Ett citationstecken (eller en rak apostrof)
  • Lite valfri text.
  • Ett till citationstecken (eller rak apostrof)
  • En avslutande parentes.

Om du tycker det är svårt att hitta apostrof på tangentbordet går det lika bra med citationstecknet som du hittar på Shift + 2, det vill säga “.

Det du behöver förstå av denna rad med kod:

  • print är en inbyggd funktion i programmeringsspråket Python och dess uppgift är att hjälpa dig skriva något på skärmen.
  • Det som är inom parentes är den information du vill ge print att jobba med.
  • Att texten Hello world! omges av citationstecken är för att berätta att det är just en textsträng. Vi kommer gå in mer på textsträngar och andra typer av data senare.

Citationstecknet hittar du på tangentbordet genom att hålla ned Shift-tangenten och trycka på siffran 2.

Det går lika bra att använda apostrof som citationstecken, så länge som du är konsekvent i ditt val.

  • Nu kan du klicka på Run-knappen, eller Ctrl + Enter på tangentbordet, för att köra denna cell med programmeringskod.

Vad hände? Om du skrev rätt så skrevs texten Hello world! ut precis under din gråa ruta. Se nedan bild.

Figur 24: När du kört din cell och allt fungerar som det ska kommer Hello world! dyka upp precis under din gråa cell.

Om du inte skrev rätt eller annat fel inträffade så kommer det stå ett felmeddelande direkt under den gråa rutan. Dessa felmeddelanden är mer eller mindre kryptiska, men om man inte direkt listar ut vad man ska åtgärda så är det vanligaste att man kopierar felmeddelandet och googlar efter det. Ofta är det på webbplatsen StackOverflow.com man hittar svaret. Det här är vad många utvecklare lägger sin tid på – att felsöka sin egen och andras kod.

Figur 25: Exempel på felmeddelande. Det finns en liten uppåtpil som markerar var den gick bet på din kod. Felet här är att det saknas ett avslutande citationstecken innan den avslutande parentesen.

Det finns många olika sorters fel och det är en överkurs för denna självstudie, men i ovanstående bildexempel anges SyntaxError. Det innebär att man gjort ett fel i hur man skrev programmeringsspråket. I det ovanstående exemplet förväntas man ha ett avslutande citationstecken innan en avslutande parentes. Därför klagar den på felaktig syntax.

När man rättat eventuella fel är det bara att köra cellen på nytt och se hur det går. Detta kallas för trial and error, man testar sig fram med saker man inte vet exakt hur man löser.

1.2 Operatorer

Operator är ett fint ord för de olika sätten att beräkna saker, som addition, subtraktion, division, med mera. Ofta menar man dock lite mer än det vi lärt oss under grundskolans matematik. Ett sådant exempel är hur man sammanfogar två stycken textsträngar, så kallad konkatenering.

Här kommer lite beräkningar med hjälp av operatorer. Vi ber maskinen räkna ut 1 + 3, men också jobbigare beräkning vi helst slipper göra utan en dators hjälp. Raderna som börjar med en hashtag är en kommentar, det behöver du inte skriva men det är ett sätt att göra anteckningar i sin kod. Kommentarer används ofta på detta sätt för att förklara den kod som sedan följer.

 # skriv ut summan av en addition
print(1+3)

 # en multiplikation som är dryg i huvudräkning
print(78324687324676*12321)

 # division
print(1/3)

 # sammanfoga text, så kallad konkatenering
print(“Hello” + “world” + “!”)

För att se resultatet – kör din kodcell antingen genom att klicka på knappen ”Run” eller tangentbordskommandot Ctrl + Enter.

Vår kod har tre matematiska exempel; addition, multiplikation, division. Vi avslutar med konkatenering, alltså att addera textsträngar vilket ger en längre textsträng.

1.3 Variabler

För att tillfälligt spara information kan man använda variabler. Det är som namngivna behållare du kan stoppa ner lite allt möjligt. Tänk dig en hink du kan lägga lite vad du vill i, det kan vara grus, vatten eller glassbåtar.

En poäng med variabler är att din kod blir lättare att läsa, åtminstone om du namnger dina variabler på ett logiskt och beskrivande sätt. Du får alltså namnge dina variabler nästan hur du vill, men det finns krav som att de inte kan innehålla mellanslag, specialtecken och kan inte börja med en siffra.

Det tredje kodexemplet går ut på att räkna på omkretsen av en rektangel. Notera att vi inte skriver ut måttenheten efter respektive siffra, om vi skrev 9 cm skulle datorn inte förstå eftersom vi blandar en siffra med bokstäver. Vi skriver istället endast in siffran.

sida_y = 9
sida_x = 7

omkrets_rekt = (sida_y * 2) + (sida_x * 2)
print(omkrets_rekt)

Om du skriver av ovanstående kod exakt och kör cellen ska den svara med siffran 32. Det vill säga omkretsen av rektangeln med sidornas mått 9 och 7.

sida_y och sida_x är de olika längder som rektangelns sidor har. Om man tar sidorna multiplicerat med två och adderar resultaten har man fått rektangelns alla fyra sidor och vet hur långt det är runt.

Samma matematikregler du är van vid fungerar, som att uträkningar inom parentes körs först, när du programmerar. Ibland skriver man koden övertydligt mest för att göra den mer läsbar, och trots att parenteser inte alltid behövs är det vanligt att hitta dem i alla fall.

1.4 Lista saker

Det finns flera olika sorters listor inom programmering. De är specialiserade för olika användningsområden, som att alltid vara sorterade eller kunna innehålla olika komplexa saker.

Poängen med en lista är dock självförklarande, man vill lista saker.

Vi börjar med att skapa en tom lista, sedan lägger vi till två frukter.

favvo_frukt = list()

 # lägga till något till en lista
favvo_frukt.append(“Äpple”)
favvo_frukt.append(“Apelsin”)
print(favvo_frukt)

print(type(favvo_frukt))

Här lägger vi två gånger till nya frukter till listan som heter favvofrukt. Sedan skriver vi ut listans innehåll och till sist skriver vi ut vilken datatyp som variabeln/listan favvofrukt är.

1.5 Importera funktioner och moduler

Programmeringsspråk har en massa funktioner man kan lära känna och ha nytta av. Dessa funktioner brukar kallas för dess standardbibliotek. Exempelvis kan man be om hjälp med saker som värdet Pi istället för att behöva skriva in decimalerna för hand. Värdet av Pi finns i en modul som heter math, det är inte konstigare än att vi importerar just ”math”.

import math

print(“Pi är”, math.pi)

Efter att vi importerat matematik-delen av Pythons standardbibliotek använder vi funktionen print() för att först skriva ut texten ”Pi är” och sedan anropar vi math-modulens underdel pi som då ger oss siffror tillbaka.

1.6 If-satser

Artificiell intelligens beskylls ibland för att enbart bestå av en massa villkor, if-satser alltså. Här ska vi sätta upp villkor. Nu börjar vi närma oss lite smarthet och inte bara ha en massa uträkningar. Dock är if-satser egentligen bara ett sätt att beskriva regler.

Men frågan är om du skulle kunna avslöja en “AI” som har miljontals färdiga svar på frågor?

Denna övning handlar om att plocka fram aktuell information, nämligen innevarande veckodag. Eftersom det är en maskin det handlar om så är veckodagarna numrerade snarare än att det är måndag till söndag det handlar om.

Precis som med exemplet tidigare med matematik-modulen och talet Pi så drar vi nytta av modulen för ”datetime” och importerar ”date”.

  • Här stöter du för första gången på ett indrag i koden.
  • Antingen gör du dessa med tabbtangenten eller tre mellanslag – det är viktigt att du enbart gör på det ena eller andra sättet. Datorer är kinkiga.
from datetime import date

veckodag = date.weekday(date.today()) 
# måndag är 0, tisdag är 1 -> söndag är 6
print(“Nummer på veckodagen”, veckodag)

if veckodag > 4:
    print(“Nu är det helg!”)
elif veckodag is 4:
    print(“Nästan helg, det är ju fredag”)
else:
    print(“Nope, inte helg…”)

Veckodagen är alltså en siffra mellan 0 och 6. Man börjar (nästan) alltid med siffran noll när det gäller data och olika sorters listningar av saker. Har maskinen du kör med svenska inställningar kan du räkna med att 0 står för måndag, men risken är att 0 är för söndag på grund av “kulturella inställningar”, men det är inget vi kommer gå djupare in på här.

Så vad är det för if-satser vi kodat? Först säger vi att om/if veckodag är mer än fyra, då vill vi skriva ut att “Nu är det helg!”. elif betyder typ “eller om” och den kollar om veckodag är exakt 4, alltså inte mer än fyra som föregående, så skriver vi ut något annat. Siffran fyra representerar alltså fredag, fem för lördag och sex för söndag.

If-blocket avslutas med else. Man kan säga att här landar man alltid om inget av de tidigare frågeställningarna varit korrekta. Om inget av ovanstående if/elif är korrekt så är det inte helg, det är måndag-till-och-med-torsdag.

Det finns alltså tre sammankopplade regler som gör detta kodblock dynamiskt. Först frågar vi om veckodagen är lördag eller söndag. Senare om det är fredag. Om inget av dessa stämmer kan vi konstatera att det varken är fredag eller helg.

Tänk dig hur du skulle fråga en människa för att lista ut vad det är för frukt hen har i sin väska. Är den grön? Ja! Ok, är den oval? Nej! Jag tror det är ett grönt äpple.

Samma system kan du fundera kring när det gäller triage, alltså en initial bedömning av hur illa däran en patient är. Eller det enklare LABC (Livsfarligt läge – Andning – Blödning – Chock) som även vi som inte är vårdkunniga ska ha som stöd för att prioritera vad vi undersöker vid en krissituation. Det är som ett intervjumanus om du ringer 112 när du hittat någon liggandes på gatan.

  • F: Har du undanröjt eventuellt livsfarligt läge?
  • S: Ja, jag släpade personen bort från bilvägen upp på trottoaren!
  • F: Andas personen?
  • S: Ja!
  • F: Blöder personen?
  • S: Ja!

I detta fallet stannar vi på blödningen och når aldrig Chock så som LABC:s algoritm är utformad. Vi behöver ta hand om blödningen eller åtminstone bedöma hur allvarlig den är innan vi kan gå vidare.

1.7 Slutligen, slingor, loopar, iteratorer, kärt barn…

För att sysselsätta en maskin med lite mer jobb kan man instruera den att göra något tills dess att den är färdig. Här följer ett exempel på det.

Vi skapar en lista med förnamn. Den där typen av parentes hittar du med knappen Alt Gr på tangentbordet intryckt och så trycker du på antingen 8 eller 9. Du på Mac använder Option-knappen och 8 eller 9. Tänk på att skriva alla namn på en och samma rad, annars kommer du få syntax error.

# skapa en lista
lista_med_namn = ["Nisse", "Greta", "Magdalena", "Harald", "Lily", "Sven"]

# mata en for-loop med en lista av något 
# och den betar av listan
for namn in lista_med_namn:
    print(namn)

Den avslutande kodsnutten är en for-loop. Koden är lite bakvänd. Tänk på att vi kör raden print(namn) lika många gånger som det finns namn i listan listamednamn.

Så namn är alltså en variabel som första varvet i loopen innehåller Nisse, andra gången Greta och så vidare.

Det som kommer hända när du kör den här koden är att den skriver ut förnamnen, vart och ett, på egen rad. Först kommer Nisse.

Det var det, nu ska vi kolla på lite maskininlärning.

Övning 2: Enkel övervakad maskininlärning

Nu ska vi testa lite maskininlärning. Det blir inte många rader kod, men desto mer abstrakt tänkande.

Konceptet är att mata maskinen med data den ska lära sig av. Den data maskinen tränar på kommer utgöra allt den vet om något och vara grunden för ett så kallat beslutsträd. Ett beslutsträd är ett sätt att sammanställa kunskap, det är inte lämpligt för alla problem men är en begriplig början för den som vill testa maskininlärning.

Figur 26: Beslutsträd är nyttiga för att klassificera saker. Till exempel om en viss frukt är ett äpple eller apelsin.

Vi ska lära upp en maskin genom exempel och erfarenheter, istället för att manuellt mata in regler. Detta genom övervakad maskininlärning. Maskinen ska sedan förutspå om en ny frukt är en apelsin eller ett äpple baserat på tidigare erfarenheter.

Nu ska vi öppna filen som heter:

  • 02-supervised-machine-learning.ipynb

2.1 Samla in träningsdata

Det som avslöjar denna maskininlärning, som just en övervakad maskininlärning, är för att vi har labels/etiketter. Labels är de etiketter med beskrivande svar vi matar maskinen med så den vet vad som är vad.

Av nedanstående kod behöver du egentligen bara skriva de tre raderna som inte börjar med en brädgård/hashtagg som första tecken. De raderna är ”bortkommenterade” och en form av dokumentation för mänskliga ögon. Kommentarerna är bara där för att förklara hur vi skriver om våra data till nummer, nummer är vad maskinen föredrar.

Strax efter koden kommer du få respektive del förklarad. Det är inte så komplicerat egentligen.

from sklearn import tree

# traningsdata: vikt i gram, ytans beskaffenhet 
# (0 för len, 1 för gropig)
# traningsdata = [[140, "len"], [130, "len"], 
# [150, "gropig"], [170, "gropig"]]
traningsdata = [[140, 0], [130, 0], [150, 1], [170, 1]]

# etiketter = ["äpple", "äpple", "apelsin", "apelsin"]
# etiketter = 0 för äpple, 1 för apelsin
etiketter = [0, 0, 1, 1]

Den första insatsen är att importera scikit-learn. Det är en så kallad modul och den hjälper oss att genomföra maskininlärning utan att behöva skriva all kod från grunden. Närmare bestämt är det ett beslutsträd vi importerar.

Sedan skapar vi en variabel, traningsdata, som får en lista med fyra olika frukter. Den första frukten väger 140 gram och har en len yta, den andra väger 130 gram och har också en len yta. De två sista frukterna väger 150-170 gram och har en gropig yta.

Eftersom maskiner föredrar siffror skriver vi om ytans beskaffenhet; 0 får symbolisera len yta, 1 får symbolisera gropig yta.

Så nu har de fyra frukterna två egenskaper vardera som är siffror. Detta är våra träningsdata.

Sist ska vi berätta för maskinen vilka av dessa frukter som är ett äpple och vilka som är en apelsin. Dessa uppgifters variabel kallar vi i koden för etiketter, du kan tänka på dem som att du sätter etiketter på respektive frukt. Genom att etiketterna ens existerar och kan hjälpa maskinen att lära sig är denna kod per definition övervakad maskininlärning. Om etiketter saknas är det istället oövervakad maskininlärning. Då skulle det vara upp till maskinen själv att lista ut hur den grupperar dessa frukter på egen hand.

2.2 Träna upp klassificeraren och leta mönster i data

Vi skapar en ny variabel som vi döper till klass. Den får först datatypen att vara en beslutsträdsklassificerare. På rad två ger vi beslutsträdet den data den behöver för att bygga upp sin kunskapsmodell (beslutsträdet, alltså). traningsdata är alltså våra fyra frukter från det tidigare kodblocket, etiketter är vår klassificering att två av frukterna är äpplen och två är apelsiner.

klass = tree.DecisionTreeClassifier()
klass = klass.fit(traningsdata, etiketter)

Ordet “fit” inom maskininlärning kanske kan översättas till svenska som att “passa in dessa data i din struktur”. Det är alltså när vi anropar klass.fit() som maskinen sorterar upp sin träningsdata i ett beslutsträd. Den lär sig alltså själv baserat på data, utan att uttryckligen ha programmerats med förbestämda regler.

Nu är ju dessa data väldigt banala jämfört med hur avancerade AI-system fungerar, inte minst för att vi har en begränsad världsbild med bara två olika sorters frukter.

Om vi visualiserar beslutsträdet så som det ser ut baserat på dessa fyra frukter kommer det se ut som bilden här intill.

Figur 27: Måhända en svårbegriplig men åtminstone visuell version av vårt beslutsträd.

Det enda du egentligen behöver förstå av denna visualisering av vårt beslutsträd är den första raden i den vita boxen. Så länge som en ny frukt väger 145 gram eller mindre kommer den ta True-grenen i beslutsträdet, väger den mer än 145 gram kommer den gå på False-grenen. Detta är alltså den regel beslutsträdet “lärt sig” baserat på de träningsdata vi matat den med. Spoiler: En frukt som väger mer än 145 gram är alltså en apelsin enligt beslutsträdet, om man har exakt samma träningsdata.

Beslutsträd är förstås djupare än så här när de tillämpas i verkligheten, men det innebär bara fler förgreningar nedåt och principen är densamma.

2.3 Predicera

Den återstående uppgiften är att förutsäga om en ny frukt är antingen ett äpple eller en apelsin – baserat på de två egenskaper maskinen nu lärt sig att tolka. Så vi skapar en ny variabel, ny_frukt, och säger att den nya frukten väger 180 gram och har gropig yta, alltså en 1:a som ytans egenskap.

Sen anropar vi en funktion som heter predict() och ger den vår nya frukt. Maskinen känner bara till två sorters frukter, den kallar dem för 0 och 1. Så om maskinen svarar att det är frukt 1 menar den apelsin och 0 är äpple. Prediktionen svarar alltså med vilken av våra etiketter den tycker att den nya frukten liknar.

En typisk if-sats, svaret är antingen det ena eller det andra.

  • Är prediktionen 1 skriver vi ut “Apelsin”, är den något annat skriver vi ut “Äpple”.
ny_frukt = [[180, 1]] # ny frukt, 180 gram och gropig yta

if 1 in klass.predict(ny_frukt):
    print("Apelsin")
else:
    print("Äpple")

Vi hade kunnat undvika att behöva använda maskininlärning för detta lilla exempel. Skillnaden hade varit att vi då fått skriva kod som kollade på träningsfrukternas egenskaper för yta och vikt.

Det hade för just detta exempel säkert fungerat lika bra, men vad hade vi vunnit på det? Vi hade inte direkt sparat in på mängden kod vi behöver skriva.

Nackdelen skulle dock vara att den koden skulle bli mindre mångsidig. Den hade inte heller lika bra hanterat om vi senare lagt till fler sorters frukter, eller nya egenskaper utöver vikt och yta. Så redan med väldigt små datamängder kan principerna inom maskininlärning börja löna sig.

Problematisering av detta simpla exempel

Den här maskinen vi tränat upp vet bara om att äpplen och apelsiner existerar. Men låt säga att vi introducerar ännu en frukt, en som har samma lena yta som äpplet. Säg ett päron. Då kommer kunskapen inte att räcka till eftersom det eventuellt bara är vikten som skiljer ett päron från ett äpple. I det fallet skulle vi behöva ha mer data om frukterna. Det skulle exempelvis kunna vara färgen, men även äpplen kan vara lite gröna. Kanske om man tar in hur fruktens form är.

Det här resonemanget är ett exempel på varför man ofta är intresserad av all data man kan komma över inom AI. Det är först efter en tid du vet vad du inte verkar behöva. 

Ett annat problem med den kod vi skrivit är att frukternas vikt och deras ytas lenhet/gropighet inte är balanserade enligt samma skala. Ytan är antingen ett eller noll. Medan vikten är inom ett större spann, 130-170 gram av de fyra träningsfrukterna.

Denna skevhet syns i vår visualisering av beslutsträdet. Fruktens yta är helt irrelevant för prediktionen, den bryr sig enbart om vikten.

Vill man balansera fruktens vikt och yta kan man tvinga in dem i samma skala. Att de översätts till en gemensam skala mellan 0-10, där lenast tänkbara frukt får en nolla och det gropigaste vi kan hitta får en tia. Samma med vikten. Tyngsta frukten får en tia och lättast en nolla.

Bland annat detta är problem man adresserar genom att jobba med feature engineering. Att harmonisera olika värden så en egenskap inte är fullt så utslagsgivande, utöver att hitta användbara egenskaper förstås.

”Feature engineering is the process of using domain knowledge of the data to create features that make machine learning algorithms work. Feature engineering is fundamental to the application of machine learning, and is both difficult and expensive.”

Feature engineering (Wikipedia)

Maskininlärning är enkelt och svårt, samtidigt!

Bilaga 2: Datakällor, tävlingar och mera med relevans till AI för bättre hälsa

Övrigt, med mer eller mindre stark koppling till AI eller life science

Alliance on Artificial Intelligence

Grundat av tre holländare som är med i EU:s HLEG om AI. Bland annat Virginia Dignum.

Webb: http://allai.nl

EurAI (European Association for Artificial Intelligence)

Webb: https://www.eurai.org

HealthTech Nordic

Webb: http://healthtechnordic.com

OpenAI – Kalifornien, USA

”OpenAI’s mission is to ensure that artificial general intelligence benefits all of humanity. We’re a team of a hundred people based in San Francisco, California.”

Webb: https://openai.com

Future of Life Institute

Bland annat AI. Grundat av Max Tegmark med flera.

Webb: https://futureoflife.org

CIFAR, Kanada

Webb: https://www.cifar.ca/ai

Etik, hållbarhet, etc

Center for Humane Technology

”Our primary goal was to move public discourse in Silicon Valley from a cacophony of disconnected grievances and scandals (”they took our data!”) to a meaningful humane agenda of actions that address the vast surface area of problems arising from technology’s race for attention.

In last week’s presentation, we explained how seemingly separate problems – tech addiction, teen depression, shortening attention spans, political polarization, the breakdown of truth, outrage-ification of culture, and the rise of vanity/micro-celebrity culture – are actually not separate issues. They are all symptoms of one underlying problem: the race between tech giants to capture human attention, which becomes a race to overwhelm human weaknesses. Put together, that race creates “human downgrading.””

Webb: https://humanetech.com

AI for Good Foundation

Webb: https://ai4good.org

Human-Centered AI

Webb: https://hai.stanford.edu

High-Level Expert Group on Artificial Intelligence – EU

Släppte rapport våren 2019.

Webb: https://ec.europa.eu/digital-single-market/en/artificial-intelligence

Webb: https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence

The Nightingale Initiative (USA)

Dataplattform i mixen mellan medicin och data science, till nytta för “public good”.

Webb: http://www.nighvision.net

Konferenser

Var kan man hitta exempel på organisationer i framkant?

HealthConf (Portugal)

Webb: https://websummit.com/healthconf

World Congress on Healthcare & Technologies (England)

Webb: https://europe.healthconferences.org

Intelligent Health AI (Schweiz)

I Basel 2019, i London februari 2020, och även i september 2020 på obestämd plats.

Webb: https://intelligenthealth.ai

Vitalis (Sverige)

Webb: https://vitalis.nu

InnoHEALTH (Indien)

Webb: http://innohealth.in

HIMMS Europe (Finland 2020)

Webb: https://www.himsseuropeconference.eu

HIMMS (USA)

Webb: https://www.himssconference.org

AMIA Informatics Summit (USA)

Hade ett spår för data science 2019.

Webb: https://www.amia.org/summit2019

Bio-IT World Conference (USA)

Bland annat om blockkedjor, AI, machine learning, deep learning.

Webb: http://www.giiconference.com/chi653337/

AI Healthcare Innovation Summit (USA)

Webb: https://www.theinnovationenterprise.com/summits/ai-healthcare-san-francisco

Big Data & Analytics in Healthcare Summit (USA)

Bland annat om AI och maskininlärning.

Webb: https://10times.com/big-data-analytics-in-healthcare

HLTH (USA)

Har ett spår tillägnat AI.

Webb: https://hlth.com

SXSW Health & Medtech (USA)

Webb: https://www.sxsw.com/conference/health-and-medtech/

SCOPE (USA)

Hade “AI in Clinical Research” som ett av spåren 2019.

Webb: https://www.scopesummit.com

Connected Health (USA)

Har AI, maskininlärning och analytics på schemat.

Webb: https://www.connectedhealthconf.org/boston/2019

Exponential Medicine (USA)

AI, kvantteknik och liknande på schemat.

Webb: https://exponential.singularityu.org/medicine/

Healthcare Innovation Summit (USA, flera orter)

Bland annat om AI och data analytics.

Webb: https://www.hcinnovationgroup.com/summits

RSNA Annual Meeting (USA)

Stor konferens inom radiologi.

Webb: https://www.rsna.org/annual-meeting

AI Applications in Biopharma Summit (USA)

”a new kind of collaborative experience where the industry’s top science minds, AI technology experts and strategy leaders share detailed use cases to help each other build out the adoption of AI technology to improve patients’ lives.

The Summit is a ‘who’s who’ of AI in biopharma and is your chance to engage in deep coverage of AI in drug discovery, clinical development and real-world evidence from an elite speaker line up including Sanofi, Novartis Institutes for Biomedical Research, Pfizer, Biogen, AstraZeneca, Boehringer Ingelheim Pharmaceuticals, Janssen, GSK and more who are pioneers in the movement.”

Webb: https://www.aiapplicationssummit.com/biopharma/

AI-ML Clinical Development (USA)

Webb: https://ai-clinicaldevelopment.com

MedInfo (Frankrike)

Lite AI och analytics på programmet 2019.

Webb: https://medinfo-lyon.org/en/

Osorterat

Crunchbase – lista med startups

Finns 8000 st startups inom maskininlärning i juni 2019.

Webb: https://www.crunchbase.com

Internationella utredningar och uppdrag

AI Watch – EU

”Monitor the development, uptake and impact of Artificial Intelligence for Europe”

Webb: https://ec.europa.eu/knowledge4policy/ai-watch_en

Samarbeten

Declaration on AI in the Nordic-Baltic Region

”“Declaration on AI in the Nordic-Baltic Region” framställdes, i maj 2018, av ministrar ansvariga för digital utveckling i Danmark, Estland, Finland, Färöarna, Island, Lettland, Litauen, Norge och Sverige. Samarbetet har i avsikt att utveckla och främja användningen av artificiell intelligens som ett hjälpmedel för människan. Länderna vill genom samarbetet mer specifikt fokusera på;

Förbättra möjligheter för utveckling av kompetens

Främja tillgång till data

Utveckla etiska samt transparenta riktlinjer, principer, standarder och värden

Utveckla standarder för hårdvara och mjukvara som gör det möjligt för integritet, säkerhet och tillit

Försäkra att ai har en framträdande roll inom europeiska diskussioner gällande “the Digital Single Market”

Undvika onödiga regleringar

Använda Nordic Council of Ministers för främjande av samarbetet.”

https://www.regeringen.se/49a602/globalassets/regeringen/dokument/naringsdepartementet/20180514_nmr_deklaration-slutlig-webb.pdf

Nordic Five Tech

Chalmers, KTH, finska Aalto, danska DTU och norska NTNU är med.

Webb: http://www.nordicfivetech.org

“Appbutiker” och utvecklarpaket

Nvidia Clara Platform

”NVIDIA Clara™ is a computational platform that makes it easy to build, manage, and deploy intelligent medical imaging workflows and instruments. Developers use Clara to increase diagnostic accuracy and the quality of scans to enhance patient outcomes and reduce the cost of care.”

Webb: https://www.nvidia.com/en-us/healthcare/

Nuance AI Marketplace

Webb:

https://aimarketplace.portal.azure-api.net/ och https://www.nuance.com/healthcare/diagnostics-solutions/ai-marketplace.html

Datakällor

Google Dataset Search

Webb: https://datasetsearch.research.google.com

NLP

Wikipedia Links Data

https://code.google.com/archive/p/wiki-links/downloads

Sentiment analysis – Stanford Sentiment Treebank

https://nlp.stanford.edu/sentiment/code.html

Twitter US Airline Sentiment

https://www.kaggle.com/crowdflower/twitter-airline-sentiment

Demografi

World Bank Open Data

https://data.worldbank.org

IMF Data

https://www.imf.org/en/Data

Datorseende

Google’s Open Images

Nio miljoner kategoriserade bilder, i drygt 6000 kategorier. Bilderna är licensierade under Creative Commons.

Webb: https://ai.googleblog.com/2016/09/introducing-open-images-dataset.html

Hälsa

Healthdata.gov

”a resource from the US federal government providing data to improve health outcomes for the US population.”

Webb: https://healthdata.gov/search/type/dataset

MIMIC Critical Care Database

”Datasets for Computational Physiology with unidentified health data from 40,000 critical care patients (demographics, vital signs, medications, etc.)”

Webb: https://mimic.physionet.org

Data USA

Har data från “industrier” som sjukhus bland annat.

Webb: https://datausa.io

National Institute of Health (USA)

Deras kontor för data science finns att läsa om här:

https://datascience.nih.gov

De har också Common Data Elements (CDE) som är data gemensam för flera datakällor, alltså referenser som överbryggar olika datakällor.

https://www.nlm.nih.gov/cde/index.html

STRIDES – biomedicinska data

Webb: https://datascience.nih.gov/strides

NIH Data Sharing Repositories

Lång lista med olika sorters datakällor som stöttats av NIH.

Webb: https://www.nlm.nih.gov/NIHbmic/nih_data_sharing_repositories.html

EU Open Data Portal

Har kategori för “Health”, samt att det kan gömma sig intressanta saker under de andra kategorierna.

Webb: https://data.europa.eu/euodp/data/

European Data Portal

Har kategori för “Health”. De skördar dataset från länders olika öppna datasamlingar.

Webb:

https://www.europeandataportal.eu/data/datasets?categories=heal&page=1&locale=en

ISIC

Webb: https://www.isic-archive.com

Stanford CheXNet

Webb: https://stanfordmlgroup.github.io/projects/chexnet/

Tal

Flickr Audio Caption Corpus

”40,000 spoken captions from 8,000 images in a manageable size. It was initially designed for unsupervised speech pattern discovery.”

Webb: https://groups.csail.mit.edu/sls/downloads/flickraudio/

Speech Commands Dataset

”A continuously evolving collection of one second long utterances from thousands of different people. It’s still receiving contributions and is useful for building basic voice interfaces.”

Webb: https://ai.googleblog.com/2017/08/launching-speech-commands-dataset.html

Ljud

FSD (Freesound)

“A collection of every day sounds collected by contribution under an open source license.”

Webb: https://annotator.freesound.org/fsd/

Environmental Audio Datasets

”It does contain some proprietary information, but a large portion is open source. It contains sound events tables and acoustic scenes tables.”

Webb: http://www.cs.tut.fi/~heittolt/datasets

Övrigt

OpenDataSoft

”2600 data portals arranged in an interactive map formation or by country list. If you’re looking for it, chances are, it’s here.”

Webb: https://www.opendatasoft.com/a-comprehensive-list-of-all-open-data-portals-around-the-world/

Kaggle

“an online community of data scientists where users can work with and upload datasets. It’s a community and a resource in one.”

Webb: http://www.kaggle.com

UCI Machine Learning Repository

”User contributed datasets in various levels of cleanliness. It’s one of the originals, and you can download datasets without having to register anything.”

Webb: http://mlr.cs.umass.edu/ml/

Inventering: Personal Health Train

Nederländskt initiativ att koppla samman de olika datakällorna som utgör den personliga hälsan.

Webb: https://www.dtls.nl/fair-data/personal-health-train/

Tävlingar

Rena tävlingar men också referensdataset att tävla om att bemästra.

The ISIC Challenge – detektera hudsjukdom

Webb: https://www.isic-archive.com

Kaggle – tävlingar i flera kategorier

Har både tävlingar och öppna datakällor.

Webb: https://www.kaggle.com

Turingtestet/Loebnerpriset – avslöja en dator i konversation

Webb: http://www.aisb.org.uk/events/loebner-prize

BraTS (Multimodal Brain Tumor Segmentation Challenge)

Var i en bild finns hjärntumören?

Webb: http://braintumorsegmentation.org

Referensdatakällor

Lista finns bland annat här: https://benchmarks.ai

  • MNIST – handskriven text
  • CIFAR-10/100 – klassificera bilder
  • SVHN – gatunummer
  • STL-10 – bildigenkänning
  • MPI Sintel – optiskt flöde
  • PASCAL VOC Object – detektion/segmentering
  • COCO Object Detection. Panoptic Segmentation
  • KITTI Optical Flow
  • NIST 2000 Switchboard – tal/konversation över telefon
  • WMT English ? – maskinöversättning, bland annat till finska

ImageNet – bilddatabas

”Dataset containing over 14 million images available for download in different formats. It also includes API integration and is organized according to the WordNet hierarchy.”

Webb: http://www.image-net.org

WordNet

Orddatabas.

Webb: https://wordnet.princeton.edu/download

ASAN Dataset – klinisk diagnos baserat på bilder

Webb: https://api.medicalphoto.org/datasets.html

HAM10000 – bilder för dermatologi

Webb: https://dataverse.harvard.edu/dataset.xhtml?persistentId=doi:10.7910/DVN/DBW86T

CAMELYON – bilder för att upptäcka metastaser i bröstvävnad

Webb: http://gigadb.org/dataset/100439

Regelverk

EU:s GDPR: Article 22 – Automated individual decision-making, including profiling

”The data subject shall have the right not to be subject to a decision based solely on automated processing, including profiling, which produces legal effects concerning him or her or similarly significantly affects him or her. “

Gäller dock inte om det finns ett uttryckligt medgivande:

”of the data subject means any freely given, specific, informed and unambiguous indication of the data subject’s wishes by which he or she, by a statement or by a clear affirmative action, signifies agreement to the processing of personal data relating to him or her;”

Webb: http://www.privacy-regulation.eu/en/article-22-automated-individual-decision-making-including-profiling-GDPR.htm

EU:s MDR Classification: Rule 11, Medical Device Software

”Software intended to provide information which is used to take decisions with diagnosis or therapeutic purposes is classified as class IIa, except if such decisions have an impact that may cause:

– Death or an irreversible deterioration of a person’s state of health, in which case it is in class III; or

– Serious deterioration of a person’s state of health or a surgical intervention, in which case it is classified as class IIb.

Software intended to monitor physiological processes is classified as class IIa, except if it is intended for monitoring of vital physiological parameters, where the nature of variations of those parameters is such that it could result in immediate danger to the patient, in which case it is classified as class IIb.

All other software are classified as class I.”

Webb: https://www.johner-institute.com/articles/regulatory-affairs/and-more/mdr-rule-11-software/

EU:s Open data & PSI directive (2019)

”All public sector content that can be accessed under national access to documents rules is in principle freely available for re-use.”

Webb: http://europa.eu/rapid/press-release_IP-19-525_en.htm

Finland: Secondary use of health and social data

Webb: https://stm.fi/en/secondary-use-of-health-and-social-data

USA:s HIPAA – Health insurance portability and accountability act

Info: https://en.wikipedia.org/wiki/Health_Insurance_Portability_and_Accountability_Act

Tack till

Korrekturläsare, bollplank och andra som bidragit. Särskilt:

  • Anders Frick
  • Gino Almondo
  • Hanna Svensson
  • Jessica Ylvén
  • Lars Lindsköld
  • Magnus Kjellberg
  • Margreth Jonson Lekare
  • Maria Lidholm
  • Marie Wedlin
  • Mia Isacson
  • Niklas Angmyr
  • Pål Jacobsen
  • Sonja Aits

Upphovsrättsliga referenser

Övriga bilder är CC0.

Lämna ett svar

E-postadressen publiceras inte. Obligatoriska fält är märkta *