Jämlik vård i algoritmernas värld

Vilka tar fram algoritmerna, vilka kan granska dem och kan resultatet bli bra om indata till algoritmen inte är neutral. Vilka medborgare drabbas om det inte blir bra, och har vi redan glömt bort några?

Nog för att det kan kännas avlägset att beslut i vården kommer tas av algoritmer så är det nog dags att fundera på normkritisk granskning. En tanke som slår mig är hur utvecklingen inte är jämnt fördelad bland medborgarna. Det är inte rättvist eller jämlikt idag heller med den högst påtagliga tekniken vi kan se och ta på.

Ultraljud idag är enbart för seende

För de flesta blivande föräldrar är nog ultraljudet en omvälvande upplevelse. Något som ger perspektiv bortom den där växande magen, att det innanför finns en liten och ganska bräcklig varelse man måste ta hand om. Jag tänker inte ens leta efter fakta att backa upp mitt antagande att dessa bilder förändrar de blivande föräldrarna. Jag är helt övertygad om att dessa bilder har en positiv inverkan för att fortsätta hålla upp med cigaretterna, snuset, alkoholen, överdrivet intag av kaffe, eller vad det nu är för restriktioner man behöver motivation för att efterleva. Det borde alltså vara god folkhälsa att blivande föräldrar får en uppfattning av sitt barn innan födseln.

Problemet är att inte alla kan se, eller att vissa inte ser bra nog för att kunna hänga med i barnmorskans berättelse om vad som fladdrar förbi på skärmen.

”Ja och här kan ni se barnets ansikte _bakifrån_, här skallen uppifrån, och en liten näsa här.”
— barnmorska på Östra Sjukhuset, SU.

För egen del var det tur att jag hade med mig glasögon. Annars hade jag nog inte hunnit hänga med alls i de gryniga bilderna som visades.

Hur blir då denna upplevelse för blivande föräldrar utan syn? Antagligen har de vant sig vid samhällets halvhjärtade anpassning till deras behov och kommer in i denna situation utan att ställa krav på att förstå, eller den självklara rätten att kunna uppfatta och förnimma vad det handlar om. Det handlar ju om dem och deras liv, vilket borde göra det självklart att de ska kunna vara delaktiga med de förutsättningar de har.

Gissa om jag tycker vi i vården borde lägga manken till för att vi med 3D-teknik även ska låta blinda blivande föräldrar få en uppfattning om sitt barn.

Digitaliseringen och modern teknik kan bidra som en utjämnande kraft i dessa sammanhang. Samtidigt måste vi fortsätta hålla ett fokus på jämlikhet och allas rättighet att delta.

Utmaningar kring ett ojämlikt samhälle vid digitalisering och algoritmer

Möjligen läste du kontroversen i juni om bildsök på Google. Sökte man efter bilder på tre svarta tonåringar dök mugshots upp, alltså bilder från när svarta ungdomar arresterats. Sökte man däremot efter tre vita ungdomar hängde de leende i parker, idrottade och njöt av livet. Så här såg det ut:

Vilken påverkan har denna bild på ungdomar och samhället? Google och teknikevangelister försvarade sig med att det är samhället som är rasistiskt och inte deras sökalgoritm. Det är alltså den ingående informationen som Google har som är rasistisk.

Man kan fråga sig vilket samhällsansvar man kräver av ett privatägt företag, oavsett hur nära monopol de ligger. Ett annat problem som uppdagats under sommaren är den relevansalgoritm som ofta kallas för personalisering. Det vill säga att innehåll och förslag i informationssystem ska skräddarsys efter användarens beteende och preferenser.

Bete dig som en man och få förslag på mer välbetalda jobb

Tydligen fick de med ett ”manligt” beteende förslag på högre avlönade jobb än om man kunde antas uppfattas som kvinna genom de signaler man gjorde tillgängliga som användare.

Som anställd inom en offentligt finansierad verksamhet ställs dessa frågor på sin spets. Om den data vi har om befolkningen inte är i linje med rådande normkritisk uppfattning kan vi ha ett problem. Är det då mitt jobb som utvecklare inom ehälsa att hjälpa till att skruva på algoritmer så att vi får ett samhälle som speglar den politiska majoriteten, samhällets tidsanda eller proffs inom normkritiskt förhållningssätt?

Vilka kan granska dessa algoritmer?

Under mina år i IT- och webbranschen sedan 1998 är den mest exotiska utvecklarkollegan jag haft en som konverterat till islam. Annars har de kollegor som praktiserat tekniska sysslor, utveckling eller programmering varit såna som jag själv – snubbar med nordeuropeisk härkomst. Det finns en och annan kvinna jag haft som kollega, men de har oftast jobbat närmre kunden, som projektledare, chef, designer eller liknande.

Allt mer börjar denna monokultur inom tekniska yrken att lösas upp. Det är bra, men det tycks inte gå fort nog med tanke på det enorma genomslag denna yrkesgrupps beslut har på dagens samhälle.

Inom vissa områden är bredden förmodligen bättre. Exempelvis känner jag till teknisk expertis som själva är drabbade av nedsatt syn, hörsel och kognitiv förmåga. Utvecklare är inget undantag från den variation av funktionsnedsättningar folk har i gemen. Men mångfalden behöver bli mycket större bland de som kan utveckla eller granska dessa algoritmer. Kanske har de algoritmerna en nyans av kvinnoförakt, rasistisk bias eller elitism kring funktionsnedsättningar enbart på grund av att de granskas för lite?

Jag efterlyser med andra ord dels större mångfald inom tekniska yrken, men också utvecklare som lär sig mer om normkritiskt tänkande. Inom Västra Götalandsregionen har vi vårt Kunskapscentrum för Jämlik Vård (KJV), det vi kan behöva framåt är IT-expertis med den kompetensen. I alla fall om vi ska följa SLL:s exempel och ta in IBM:s Watson-dator för att agera beslutsstöd inom vården. Varför ska svensk vård lita blint på Watsons omdöme när vi inte vet hur den resonerar? De indata Watson har för att komma fram till något kanske inte motsvarar vår ambition kring förändring av samhället.

Idén som sådan är kanon, men någon behöver hjälpa oss bleka IT-snubbar med hur vi instruerar maskinerna. Eller vad tycker du?

Ännu mer om digital jämlikhet

Lämna ett svar

Din e-postadress kommer inte publiceras.