Reflektioner efter Google i/o 2019

Del 7 i bloggserien för uppdraget Swelife 😍 AI. Igår sändes Googles utvecklarkonferens, i/o, och började med en allmän keynote. Swelife och VGR arrangerade en träff på AI Innovation of Sweden för de som ville stråla samman och kolla på keynoten ihop.

Tiotalet nyfikna gjorde mig sällskap. Det dök upp studenter, en från Volvo Cars, Sahlgrenska och en från VGR:s kommunikationsavdelning, bland annat.

AI ska vara tillgänglig utan internetuppkoppling

Mycket är AI i framtiden, gärna med bibehållen integritet och utan uppkoppling till nätet. Detta demonstrerades bland annat genom att mobilen klarade av uppgifter i flightmode. Detta har man löst genom att prioritera och komprimera det som måste ligga lokalt på mobilen till att endast vara 100 Kb. Sånt är viktigt för de med billigare mobiler men att det ska fungera utan koppling till internet kan även jag som till vardags sitter i 5G-tillverkaren Ericssons lokaler känna igen mig i. Åker man tåg kan man inte lita på att ha uppkoppling hela tiden, ännu mindre med buss (antar jag) och många platser i Dalsland där jag plockar svamp eller motionscyklar har ingen som helst mobiltäckning.

Men om man släpper det västeuropeiska perspektivet så är detta förstås jättebra för de med en begränsad ekonomi eller som rör sig ofta i miljöer med osäker uppkoppling till nätet. Man behöver inte ha en surfpott för att använda sin mobila assistent, den förstår vad du säger ändå och den kan läsa upp text du pekar mobilkameran mot ändå, vilket kan göra analfabeter mer självständiga.

Förstå mänskligt tal och individuella gester

Taltekniken börjar även lära sig av de med talsvårigheter. En av personerna som demonstrerade hade någon form av problem som gjorde att jag som åhörare var glad över textremsan. Tekniken river hinder mellan människor som nu kan kommunicera enklare. Tänk dig en person med talsvårigheter som har med sig denna teknik för att på egen hand bli förstådd i kontakten med samhällsservice (utan omaket att boka in en tolk på förhand).

En annan demo var en maskin som lärt sig känna igen gester hos en ALS-drabbad. Nu kunde personen göra en ansiktsgest som ledde till att maskinen spelade upp ett skratt, buade eller jublade vilket kan vara användbara uttryck i sociala sammanhang. En mer mänsklig AI.

Vad tyckte du var bäst med i/o 2019?

Trevare

Vi som träffades nätverkade förstås. Förutom att några av oss nog redan har stämt möten sinsemellan som uppföljning på enskilda samtal så var det några som ville göra en “AI-verkstad”. Det skulle vara i formen av en träff där man tar med sig en Raspberry Pi, eller liknande, och så kodar vi lite i Googles verktyg för maskininlärning, TensorFlow, för dessa små maskiner.

Sugen på att vara med?

Lämna ett svar

E-postadressen publiceras inte. Obligatoriska fält är märkta *