AI i hälso- och sjukvård #8 – Energiåtgång för AI och AI som luras av en spritpenna

Intro

Precis som för blockkedjans energiåtgång, ibland i klass med hela länders åtgång, kan deep learning hamna i problemet att inte leva upp till global hållbarhet. Inte alla problem får kosta fem stycken bilars totala koldioxidutsläpp, vilket MIT Technology Review rapporterade i juni.

Det här kunde man läsa mellan raderna med AI:n AlphaStar som tränade på spelet Starcraft motsvarande 200 år för att (nästan) bli bättre än en människa. Ett spel som bara funnits för människor i 20 år. Eller liknelsen som skrevs i ett tidigare nyhetsbrev om hur mycket energi en människas hjärna behöver för att tävla mot en artificiell hjärna i spelet Go. Datorn drog 25 000 gånger mer energi än människohjärnan under tiden de spelade.

Så när kommer AI vara lika snabblärd och energieffektiv som människor?

Ska dagens AI misslyckas på grund av energiåtgången? Låt oss hoppas att AI-tekniker fortsätter att utvecklas!

Och ja, engelska NHS sätter upp ett nationellt AI-labb. Det kanske vi också borde göra? Eller så är de svenska “datalabben” och hubbarna av AI Innovation of Sweden lite samma sak..?

//Avd Vårdens digitalisering, genom Marcus Österberg

PreHospen på Högskolan i Borås

I ett projekt med såväl norska som svenska högskolor, bland annat Chalmers, samt sjukhus och medicintekniska företag, har man börjat utvärdera AI för diagnoser. Tanken är att AI-tekniken kan bidra med att prioritera vilken vård som patienterna ska få och kommer att utvärderas i en simuleringsmiljö utan att påverka faktiska patienter.

Mer om projektet ”Artificiell Intelligens: för en jämlik vård”:

Människa jämfört med en maskin

Ofta när vi läser om AI-teknikernas framsteg så jämförs människors prestation med en specialtränad maskin. Exempelvis hur bra människor i gemen är på att identifiera olika djur (på bild), jämfört med en maskin. De gånger dessa ting publiceras är maskinerna alltid åtminstone nästan lika bra som människor, ibland bättre. Och ibland bättre än erfarna människor inom särskilda områden.

Nu har en studie släppts som på ett systematiskt sätt jämför AI med kliniskt verksamma. Deras mål var att:

”…systematically examine the literature, in particular, focusing on the performance comparison between advanced AI and human clinicians to provide an up-to-date summary regarding the extent of the application of AI to disease diagnoses. By doing so, this review discussed the relationship between the current advanced AI development and clinicians with respect to disease diagnosis and thus therapeutic development in the long run.”

Artificial Intelligence Versus Clinicians in Disease Diagnosis: Systematic Review (JMIR Medical Informatics, augusti 2019)

Slutsatsen var att AI (i de artiklar man studerat) är i klass med människor, särskilt inom bilddiagnostik.

Intelligens?

En annan jämförelse med människor är själva intelligens-begreppet, eller intuition som vissa föredrar. Exempelvis Facebooks AI-chef tror mycket på att unsupervised learning är framtiden, det vill säga att maskinen inte får ett facit utan tvingas förstå saker lite mer på egen hand.

Ett exempel som togs upp i en artikel i MIT Tech Review är hur bebisar själva utvecklar förmågan att intuitivt förstå gravitation innan de är ett år gamla:

”At six months old, a baby won’t bat an eye if a toy truck drives off a platform and seems to hover in the air. But perform the same experiment a mere two to three months later, and she will instantly recognize that something is wrong. She has already learned the concept of gravity.”

The AI technique that could imbue machines with the ability to reason (MIT Technology Review, juli 2019)

Riktigt där är vi inte med AI idag. En robot som kan göra bakåtvolter kommer inte inom ett år att förstå att en fotboll som rullar av ett bord kommer falla till marken.

Medicinsk AI fokuserad på uppgiften

Du kanske sett exempel på hur stoppskyltar i trafiken missförstås av AI tack vare ett minimalt klistermärke som placerats på skylten? Eller att tekannor med mönster av en golfboll antas vara en golfboll?

Motsvarande blunders finns också inom medicinsk AI. Ett exempel nyligen visade att en AI hade svårt att bortse från de streck som ritats på huden på en patient:

”This study suggests that the use of surgical skin markers should be avoided in dermoscopic images intended for analysis by a convolutional neural network.”

Association Between Surgical Skin Markings in Dermoscopic Images and Diagnostic Performance of a Deep Learning Convolutional Neural Network for Melanoma Recognition (JAMA Dermatology, augusti 2019)

En äldre variant, från 2017, är om det påverkar en AI ifall det finns en linjal med på bilden bredvid det som befaras vara hudcancer. Svaret är ja, AI:n kommer fram till en annan bedömning om linjalen tas bort.

Behöver alla organisationer en AI-strategi?

Nej, det gör vi inte. I alla fall inte om vi ska tro en artikel på MIT Sloan som konstaterar att:

”A company’s strategy is defined by its key performance indicators. Artificial intelligence can help determine which outcomes to measure, how to measure them, and how to prioritize them.
[…]
A strategy for AI is not enough. Creating strategy with AI matters as much — or even more — in terms of exploring and exploiting strategic opportunity.”

Strategy For and With AI (MIT Sloan Management Review, juni 2019)

Men precis som många organisationer hade en separat digital strategi, och dessförinnan en webbstrategi, är det nu många som tar fram AI-strategier. Dock tycks inte MIT Sloan se det som något vi kan isolera till en egen strategi.

Kurser inom AI

Du har väl inte missat att kursen Elements of AI nu finns på svenska? Många har börjat visa upp sina diplom på sociala medier och de flesta tycks rekommendera kursen. Man planerar tydligen för en mer avancerad kurs. Du som inte kan hålla dig tills den svårare kursen dyker upp kan kolla in nedan tips.

Hälso- och sjukvård, eller medicinteknik:

Generella kurser:

Poddavsnitt

Prenumerera på detta nyhetsbrev? Anmäl dig här: http://eepurl.com/dO2yer