AI i hälso- och sjukvård #12 – AI-specifik hårdvara mot cancer, video om AI från Inera och Tillväxtverket

Intro

Här kommer januaris nyhetsbrev om AI men först vill jag önska alla läsare en god fortsättning!
//Marcus Österberg, avd Vårdens digitalisering


Så här efter årsskiftet kan vi vänta oss ett antal AI-utredningar som släpps. Vinnovas strategiska innovationsprogram har släppt eller kommer snart släppa sina rapporter, bland annat Swelifes AI-rapport. Myndigheten för digital förvaltning, DIGG, uppges ska lämna sin AI-rapport i mitten eller slutet på januari. Så den nyfikne kan hålla uppsikt.

Något som släpptes i mitten på december var den nationella strategin för life science , som även tar upp en del om AI.

Vill du ha ett grymt bra citat att reflektera kring? Cassie Kozyrkov gör en sällan besviken:

”Diving into algorithms and data before figuring out what outputs would count as good or bad behavior is a bit like putting a puppy in a basement with food and water, then being surprised what comes out isn’t good at being a police dog. You can’t expect to just sprinkle machine learning on your business, leave it brewing, and get something useful.”

The first step in AI might surprise you (oktober 2018)

Artikeln är väldigt läsvärd och hon förmanar oss att inte låta AI-forskare eller data scientists styra arbetet, det ska en ledare av något slag göra.

Specialiserad hårdvara gör AI ännu bättre på cancer

Oftast när vi läser om AI är det mjukvara det handlar om. Som i algoritmer, neurala nätverk, med mera. Det gör inte att det inte sker framsteg på andra områden. Bland annat tas det fram en ny generation specialiserad hårdvara som kan hjälpa till att lösa problem på helt andra sätt än vad vi är vana vid.

Att leta efter potentiella molekyler att designa som läkemedel är ett omfattande problem. De tänkbara kombinationerna är fler än antalet atomer i hela universum, vilket gör det svårt att enbart tillämpa konventionell beräkningskraft eller den parallella kompetens som finns grafikkort.

”Done well, such chips have the potential to train deep-learning models up to 1,000 times faster than GPUs, with far less energy.”

A giant, superfast AI chip is being used to find better cancer drugs (MIT Technology Review, November 2019)

Konferenser att se i efterhand

Inera arrangerade före årsskiftet en konferens, Hur vi ökar den offentliga förvaltningens förmåga att använda AI, som nu är släppt på Youtube som en spellista.

Själva presentationerna från Ineras konferens kan laddas ner på deras sida Artificiell intelligens i offentlighetens tjänst .

Tillväxtverket driver ett AI-nätverk. På decemberträffen presenterade bland annat forskningsinstitutet RISE och Skatteverket. Den sistnämnda verksamheten reflekterade över sitt arbete med att hjälpa kollegorna igenom gratiskursen Elements of AI.

Video från AI-nätverkets decemberträff

Om etisk AI i vården – anteckningar från föreläsning på Göteborgs Universitet

Göteborgs Universitet arrangerade en träff om etisk tillämpning av AI den 18:e december. Här kommer anteckningar från Richard Ashcrofts föreläsning som var lite mer specifik om hälso- och sjukvård än de andra.

Diskussionen om etik i hälsovården är absolut inte ny. Inte heller idéerna när det gäller etisk AI eller datorstödd vård i hälsovården är nya, de föddes redan på 1980-talet.

AI är inte heller “disruptiv” när det gäller etiskt utövande av vård. AI kommer egentligen inte med något nytt eller okänt.

Vanliga farhågor i medicinsk AI

Om du automatiserar ett orättvist system kommer det leda till att orättvisan döljs. Då tas intuitionen bort, att en människa skulle kunna ha tagit ett bättre beslut, åtminstone ibland.

Den klassiska tesen “garbage in garbage out” gäller även här. Att mata IT-system med dåliga data och därav få dåliga resultat bör inte överraska någon.

Fler problem: Samtycke, ansvar och förklarbarhet

Kan en chatbot ens inhämta ett samtycke, när den inte är en människa? Det är en abstraktion att den ens agerar på en människas uppdrag.

Vem har, och tar, ansvar när ett AI-system felar?

Betyder alla hoppfulla akademiska fynd att något är “as good as radiologist” att det är en bra standard? Eller borde en AI tvingas till en ännu högre standard än vad människor kan uppnå?

Vi behöver kanske inte förstå vad en AI kommer fram till. Dels för att den kan ha hittat något människor inte känner till eller kan begripa, men AI:n kan också av naturliga skäl ha svårt att förklara hur den kom fram till sitt resultat.

Inom vetenskapen händer det ibland att man upptäcker något utan att man i samtiden lyckas förstå det. Så frågan är kanske om åtminstone någon inom läkekonsten behöver förstå AI:n och gå i god för dess fynd?

Integritet och konfidentialitet

Samma typ av problem har inom epidemiologi funnits länge. Ingen epidemiolog samlar in data för ett enda tillfälle, att de efter sin första användning gör sig av med alla insamlade data. Det finns exempelvis ett data set från 1946 som fortfarande används, där föräldrar till respektive data subject lämnat samtycke. De föräldrarna är troligtvis döda vid det här laget, men samma data används fortfarande…

AI är i viss mån bara epidemiologi i en uppskalad version. Idag använder vi oss av “big data”.

Här kommer förstås en massa frågor. Som vad som ligger i allmänhetens intresse, individens potentiella skada och egenintresset hos den som behandlar datakällan.

Grupper som ofta kommer i kläm

Hur förstår vi när hela grupper kommer i kläm? Det tenderar att vara samma grupper som kommer i kläm, oavsett sammanhang. Tänk kvinnor, mörkhyade, icke-binära, och så vidare.

Dataskydd och problem med hur man tar bort individer ur ett data set är inte heller det nya problem. Om du har en IT-bakgrund kanske du behöver bjuda en epidemiolog på en kaffe 🙂

GDPR/dataskyddsförordningen, Patientdatalagen, m.m.

Dataskydd är bra på att skydda uppenbara personuppgifter, men inte fullt så bra på de saker som tillsammans identifierar en person. Att dra slutsatser om vem personen föreställer är något som maskininlärning gör hur lätt som helst.

Arbetskraft och den mänskliga medicinen

Läkare riskerar att bli en “high cost niche service” som ersätter psykoterapi, likt “mindfulness”-appar, vilket inte behöver vara fel. Precis som Eric Topol argumenterar, i sin bok Deep Medicine, att läkare återgår till att vara “wellness professionals” snarare än “data clerks” som stansar in grejer i diverse system medan patienten tålmodigt väntar.

Vårdpersonal kan framöver komma att definieras som “caring advisors” snarare än “technical experts”. De är inte längre professionen som förmedlar medicintekniska resultat, som från genomics, radiologi, tillämpad neurovetenskap, och så vidare.

Ett annat argument är att AI hjälper oss skapa en mer human hälsovård där människor ägnar sig åt det (ibland mytiska och överhajpade) mellan-mänskliga mötet.

Det är en tydlig skillnad mellan läkekonsten som vetenskap och som hantverk.

Det sjuksköterskor gör är nog svårare att automatisera. Läkare håller inte på så mycket med omsorg eller omhändertagande av patienter – därav allt tal om radiologer och läkare när det kommer till medicinsk AI. Läkare är förstås inte socialarbetare, och visst, någon form av avgränsning för vad vi förväntar oss av en läkare är bara logisk.

Föreställningar om framtiden och förutsägelser

Det finns gott om gissningar och fantasier. Det är inte nödvändigtvis fel. De frigör oss från förutfattade meningar. Det är lätt att strida som sitt föregående krig på nytt, det lärde sig den amerikanska militären efter Vietnam.

Det science fiction och fritänkare kan bidra med är frågor som “What if…”, vilket också är vanligt inom det populära fältet tjänstedesign.

Samtidigt, det är svårt att frigöra sig från sin egen bias. Därför behöver man ha en mångfald bland de som tänker till.

Att järnvägen skulle bidra till första världskrigets elände var svårt att förutsäga även för författare inom science fiction.

Human medicin?

Om du tänker dig din läkare som en robot – hur skulle du resonera kring dess kunskap, förmåga och auktoritet ifall du visste att den memorerat din patientberättelse och relaterat med en miljard andra människors?

Går det att reducera medicinsk AI till byråkrati?