Sökanalys – ett kollektivt dåligt samvete?

Vi är i slutfasen att skruva in det regionala verktyget för att jobba med sökanalys. Vi är inte helt på det klara vad vi ska kalla det för ännu, men det lutar åt ’sökredaktörsportal’. Det kan finnas en poäng i detta namn då man ibland anar att kollegor tror att sökmotorn är en magisk IT-lösning som kan förädla det innehåll den hittar och presentera det innehåll som är relevant för oss när vi söker.

Så är det givetvis inte. Sökmotorns magiska egenskaper är ytterst begränsade. Snarare brukar man jämföra sökmotorer, såväl interna som externa som Google, med någon som är både blind och döv. Sökmotorn kan inte se vad som är uppenbart i en bild eller video, inte heller hör den innehållet i ett ljudklipp eller inspelad video.

Dessutom är dess språkförståelse extremt, vad ska man kalla det, ’maskinell’ kanske? Om de eftersökta orden inte står i klartext i innehållet som eftersöks kan sökmotorn tyvärr sällan hjälpa till. De få gånger sökmotorn ändå kan hjälpa till är när man infört synonymhantering eller annat strukturerat sätt för en maskin att försöka förstå den som skapat ett innehåll.

tl;dr – orkar inte läsa

Kontentan är att man måste jobba med innehållet som är tillgängligt att söka på. Till detta har man verktyg för att utvärdera sökupplevelsen, alltså verktyg för sökanalys. Ett sådant är Kibana, som är det vi på VGR nu testar.

I ett sådant verktyg jobbar man primärt med att hitta vanliga blunders, som att användarna inte hittar material som är viktigt. När man nått den insikten putsar man på innehållet så det blir lättare att hitta i sökfunktionen. Bland annat genom att lägga till mer metadata.

Det handlar om att lära känna sökanvändaren, och med sin webbplats prioriterade mål se till att viktigt innehåll har förutsättning att hittas.

Liten ordlista…

En ordlista kan nog behövas då jag är väldigt specifik i vad jag menar med varje ord.

  1. Webbanalys – all form av analyserande av hur bra en webbplats fungerar enligt sina användare, dess uppsatta mål. Finns massor med verktyg. Begreppet inkluderar alltså nedan begrepp (i mitt tycke).
  2. Webbplatsstatistik – de data man automatiskt samlar in om hur webbplatsen används av användarna, vad som ibland kallas dess klickström.
  3. Sökanalys – utvärdering av allt som rör den egna, interna, sökfunktionen. I somliga fall endast en liten sökfunktion på en enda webbplats, inom VGR däremot en mycket stor och ytterst komplex Enterprise Search-miljö för både internt och externt bruk.
  4. Sökmotorns index – ett index är den samling information sökmotorn samlar på sig, där samlas allt sökmotorn vet något om. Det är mot detta index en användare ställer sina sökfrågor.
  5. Resultatsida – det resultat sökmotorn presenterar som svar på en sökfråga. Ofta tio förslag på träffar, rangordnade där den mest relevanta kommer överst. På engelska ofta SERP – Search Engine Result Page.
  6. Relevansmodell – en samling regler som beskriver vad som anses vara viktigt och dessutom i relation till annat. Exempelvis har ett ord i en rubrik högre relevans än samma ord i en brödtext. Man kan modifiera sin relevansmodell, men det är på inget sätt något för lekmän.
  7. CTR – Click Through Rate – motsvarar genomklicksfrekvens på svenska. I sammanhanget kring sök är det ett mått på vilken andel som väljer att klicka på någon av sökträffarna. Klick på översta träffen i sökresultatet höjer en CTR, men stänger man söksidan, klickar fram söktips, backar i webbläsare så sänker man CTR.
  8. Segment – en delmängd av ens användare. Används för att analysera beteende och upplevelse för en grupp användare som råkar ha en eller flera gemensamma nämnare. Ett segment kan vara ”de som ansluter med en Android-telefon”, ett internt segment kan vara ”de som haft lönesamtal de senaste 30 dagarna”.
  9. KPI – Key Performance Indicator – är ett väl avgränsat mål som på en webbplats behöver vara mätbart. Förutom att en KPI definierar vad som är bra så kan man helt plötsligt peka på en användares session på ens webbplats och säga att det var ett bra besök, det uppfyllde ett definierat mål.
  10. Key-matches, best bets eller sponsrade träffar – motsvarar en extern sökmotors reklamplats. Här lägger du sådant som av någon anledning inte finns i träfflistan eller hamnar på tok för långt ner.

Ger en unik insyn i användarens upplevelse av sök

Det som är slående med sökanalys är att man för en gångs skull får en glimt av insyn i hur användaren tänker. Åtminstone i den mån man kan anse att det sätt de uttrycker sig på skvallrar lite om deras tankemönster. Akademiker kallar detta för att denna typ av analysarbete är ’semantiskt rik’. Vad jag utttyder ur det är att man får reda på med ord vad användaren är ute efter, ibland flera ord, och med vissa verktyg rent utav kan man få se en serie av hur användaren väljer att formulera om sin sökfråga i ett försök att få bättre träffar.

Inom ”vanlig” webbanalys handlar det ofta endast om att försöka analysera en ström av klick på en webbplats. Att försöka se hur strömmen förändras, dess ebb och flod beroende på var man placerar innehåll och designelement. De hypoteser man kan bygga upp inom webbplatsstatistik kring vad slutmålet är för användaren är i bästa fall mycket svaga. Här briljerar sökanalys. Ska jag vara helt rättvis så briljerar webbplatsstatistiken med att kunna följa upp måluppfyllelse – som en användares resa genom en webbplats för att slutligen ta sig igenom kundprocessen.

Hur det fungerar

Fundamentet bakom sökanalys är det faktum att nästan allt som händer i ett IT-system skrivs ned till loggfiler. Lite av systemens egna dagböcker. De historiskt sett mest intresserade av dessa loggfiler har varit utvecklarna av respektive system eller IT-tekniker som felsöker. Dessa sökloggar är alltså en förteckning i kronologisk ordning över vilka sökfrågor som ställts mot sökmotorns index. Utöver själva sökfrågan antecknas också lite extrainformation, bland annat IP-adressen på den pryl där sökningen initierades från – alltså användarens dator eller pryl. Dessutom sparas en tidsangivelse och lite information om den pryl som användaren har (läs mer om användaragent om detta lät intressant).

Lite beroende på vilken sökmotor man har så antecknar den också vad användaren väljer att göra när den fått fram en resultatsida. I vårt fall har vi koll på CTR vilket gör att vi vet lite om hur användaren reagerar på sökresultatet – ifall de klickar på någon träff eller inte. Jämför man två olika sökfrågor och en av dem har högre CTR har man god anledning att tro att de första träffarna i det sökresultatet motsvarar vad användarna förväntar sig.

Sökanalys är ganska tekniskt

Startpunkten för sökredaktörsportalenMan behöver nog inte bli förvånad om man initialt möter lite motstånd från IT-personalen om man börjar prata om logganalys. Det är än så länge inte jättevanligt att vi ”användare” har armbågat oss fram och krävt att IT låter oss kolla på loggfiler. Bli inte heller förvånad om IT i all välmening betvivlar att vi kommer förstå innehållet i loggarna.

Det är inte loggarna i sig vi är intresserade av. Snarare är vi ute efter att få ett verktyg som kan bearbeta dessa loggar och visa upp något inte fullt så tekniskt. Kolla in bilden här intill. Det är vad många kallar för dashboard som baseras på loggfiler som hämtas upp från sök, bearbetas och presenteras i ett lite tillsnyggat paket. Just detta paket heter Kibana som är en del av Elasticsearch-plattformen.

Som med allt analysarbete finns en dimension om hotet mot personlig integritet. Eftersom man inte ger åtkomst till loggfilerna i sig så undanröjer man huvuddelen av problemet då man som användare av verktyg likt Kibana inte kan efterforska en enskild sökanvändare, inte heller ta del av dennes IP-adress. Det som kan råka hamna i verktyget för sökanalys är dock olämpliga sökbegrepp någon användare sökt efter. Det är långsökt (sorry!) att detta inträffar, jag har aldrig sett det, men det går inte att utesluta.

I vårt fall så ställde jag frågan till våra jurister och bedömningen var att det inte krävdes några extra åtgärder då våra användare av sökredaktörsportalen ändå tvingas iakta sekretess om de skulle snubbla över olämpliga uppgifter. Det viktiga i sammanhanget är nog ändå att det är oerhört komplicerat att missbruka ett sånt här verktyg ens om man har uppsåt.

Påverkar innehålls- och designarbete

I och med att man ser vilka ord användarna använder när de letar efter något så har man lite av en fusklapp för innehållsarbetet. Vilka ord borde man som innehållsskapare använda? De som gör att materialet är sökbart förstås, eller så får man se till att det finns som allra minst en synonym någonstans. Det klassiska exemplet är ju om du på din kommunwebbplats får några träffar över huvud taget om du söker på ’dagis’. Nu råkar ju de flesta veta om att det numera heter ’förskola’. Men är det verkligen värt att vara viktigpetter i sin sökfunktion och förvägra de stackare som råkar söka på ”fel” ord? Självklart inte!

Vanliga frågorMest intressant med sökanalys är nog listan över de vanligast ställda sökfrågorna, se bild intill för VGR. Inte helt oväntat är våra användare ute efter information som har med vård att göra, nämligen ’egenremiss’. Strax under kommer ’heroma’ vilket är namnet på vårt personalsystem, platsen där vi ansöker om semester, rättar tidrapporter med mera.

Insikten som kan finnas i att veta om denna lista är potentiellt två väldigt olika saker:

  1. Vad som är populärt inom sökfunktionen.
  2. Det är för svårt att navigera sig fram till rätt innehåll, vad nu användaren anser är rätt.

Exakt vilken av dem, eller i vilken kombination, som man kan se som orsak kräver viss efterforskning. Användbarhetsgurun Jakob Nielsen släppte en bok, Web Usability, på nittiotalet. Däri hävdade han att vissa av webbens tidiga användare föredrog sök framför navigering, de sökte alltså på en gång och gav sedan upp. En annan grupp var de som navigerade och aldrig sökte. Den sista gruppen bestod av de som navigerade en kort stund, testade sök och sedan gav upp. Hur just dina användare beter sig nu, tjugo år senare, kanske är värt att undersöka?

Till att börja med använder man denna lista av vanliga sökord för att ta fram en ordlista kommunikatörer och redaktörer måste vara medvetna om när de formulerar budskap och innehåll. Tänk också på att listans innnehåll kan variera stort beroende på vilken del av året du inspekterar. Listan här intill blandar såväl anställda som patienter, medborgare och andra intressenter. Använder man inte samma språkbruk som sina användare kan man inte klaga på att sökmotorn är kass – det är liksom upp till oss som fyller den med innehåll att anpassa oss efter språkbruket de sökande använder. Det är egentligen av den enkla anledningen som Google fungerar så bra. På varenda jäkla begrepp, på nästan varenda språk finns det en hård konkurrens om att nå toppen av sökresultatet. Inom våra egna sökfunktioner är intresset något mer ljummet, minst sagt.

“Enterprise data simply isn’t like web or consumer data – it’s characterised by rarity and unconnectedness rather than popularity and context.”
Charlie Hull, flax

Vill man kolla sin interna topplista med begrepp med en extern aktör, eller få slut på en evig diskussion om vilket ord som ”gäller” kan man ta sin dispyt till Googles tjänst Trender. Det är inte konstigare än att man matar in två eller fler ord och så får man svar om dessas allmängiltighet enligt användare av Googles söktjänst.

Om verktyget för sökanalys samlar in all data från sökmotorn är det värt att notera att somliga webbplatser, eller delar av webbplatser, är sökbaserade. Det betyder att det för en helt vanlig sida, bakom kulisserna, ställs en sökfråga för att hämta fram innehåll. Det riskerar att göra statistiken något skev. I VGRs fall är Västarvet en sådan webbplats. Det är därför man kan välja så kallade sök-scope, alltså filtrera fram eller bort enskilda webbplatser från de vyer som sökanalysverktyget erbjuder.

Låt säga att man ska designa om sin webbplats och har samlat på sig data till sökanalys över en tid. Då går det förstås utmärkt att komplettera bilden ens webbplatsstatistik erbjuder om vilket material som var populärt med vad som eftersöktes. Kanske ska det som söktes efter vara ännu lättare att hitta? Låg det inte redan i en toppmeny kanske det är läge att lägga det där, eller placera inom synhåll på viktiga landningssidor?

Skillnaden jämfört med sökmotoroptimering och klickstatistik

Det som i reflektionsarbete skiljer webbplatsstatistiken och sökanalysen är att den första talar om vad man hittade fram till, den senare vad man letade efter! Tänk på det. Bara för att något får många sidvisningar betyder det inte att användaren är nöjd eller tyckte det var meningsfullt. Mixa dessa två datakällor för att få en mer komplett insikt i vad nästa design kan tänkas behöva.

Mest klickat av alla söksajter inom Västra Götalandsregionen
Populärast är ett dokument i vårt dokumenthanteringssystem Alfresco. Sen lite oväntat att vår indexering av 1177.se gjort att många hittar material vi numera egentligen bara ska ha där. Sen inte helt oväntat att folk letar feriepraktik.

Sen är det också viktigt att man inte förväxlar sökanalys med sökmotoroptimering (SEO). Sökanalys kan precis som SEO göras både på egen sökfunktion men erbjuds också via Googles Search Console, eller Bing Webmaster Tools, för insyn i hur ens webbplats fungerar från deras synvinkel. En jätteskillnad är förstås allt det Google, Bing, med flera inte tänker tala om för dig – deras affärshemligheter. Din egen sökanalys har du full kontroll över, hur du tillåts utföra sökanalys på andras sökmotorer varierar stort (även fast det förstås är intressant).

Detsammma gäller inom SEO. Det är väldigt lite konkurrens om toppositionerna på ens egen sökmotor. Ännu mindre, dessvärre, då många glömmer bort att kolla ifall nyskapat innehåll matchar vanliga sökfrågor, har rätt språkbruk etc. Den typen av insyn och påverkan kan man bara drömma om när det gäller externa sökmotorer.

Inte börja med den långa svansen – kör med korta halsen

Long tail, Zipf-kurva (Illustration: Anna Johansson, ur boken Webbstrategi för alla)
Bilden illustrerar long-tail, Zipf-kurva, eller 80/20-regeln. Poängen är att jobba med det mest populära först.

Om du inte har obegränsat med tid, resurser eller anser att du ska börja i den änden där varje insats gör mest nytta. Allt inom sökanalys är sorterat efter storhet, störst överst eller först. Det beror på att det är vad man behöver jobba med först, eller efterforska först om det går att optimera ytterligare.

Bilden här intill illustrerar något med många namn, nämligen long-tail, Zipf-kurva, eller 80/20-regeln. Gemensam nämnare är att den stora massan av oss ganska ofta kommer ställa en sökfråga som är väldigt vanligt förekommande.
Poängen med när man ser dettta mönster är att om man förbättrar de 10 vanligaste användningsfallen så har man gjort en oerhört stor förbättring för väldigt stor andel av användarna. Det är nästan suspekt sannolikt att vi söker efter samma saker.

Kommer man på ett automatiskt sätt att förbättra de ovanliga sökfrågorna så för all del jobba på, men det är troligen inte värt nästan någon manuell ansträngning (eller särskilt många klockcykler för en dators processor).

Varför segmentera?

Att segmentera sina användare handlar om att du vill fokusera på en grupp användare i taget. Vad som definierar gruppen kan minst sagt variera. Precis vilken intressant egenskap som helst kan utgöra grunden för ett segment av användare. För vanlig webbanalys kan det handla om ifall mobila användare med nedan gemensam nämnare verkar ha en bra upplevelse och göra något nyttigt på webbplatsen, trots att:

  • De har förrförra versionen av Android.
  • Under genomsnittet i upplösning på skärm.
  • Under genomsnittt storlek på skärmen.

Scope - alltså varifrån sökanvändarens session börjadeDet finns vad jag förstått 17 000 st olika Android-prylar som kan ansluta till webben. Som du förstår har man inte tid att ha koll på alla tänkbara varianter av upplevelser i detalj. Istället behöver man utgå från vad som är viktigt, rimligt, och vad som är vanligt.

Specifikt för sökanalys inom segmentering är att skilja ut användare efter:

  • Vilken webbplats de påbörjade sin sökning på? Inte minst för oss med hundratals webbplatser, såväl interna som externa. Detta brukar ofta kallas för ett scope, typ omfång eller ursprung. Se bild på VGRs scope här intill.
  • De som söker på ett ord som relaterar till våra övergripande mål, exempelvis sökbegreppet ’lediga jobbb’, ’AT-tjänst’ och många fler.
  • Vilket språk de behärskar. Mest uppenbart är ju om man har helt olika språk, men inom offentlig sektor så finns det ju ett antal, ursäkta min franska, fikonspråk i form av de termer professionella inom vissa områden använder och det som lekmän använder. Mest uppenbart är väl vårdens latinska begrepp och motsvarande ord på vanlig svenska.

Ibland jämför man segment sinsemellan. Vad skiljer ett segment från ett annat, och vad beror eventuella skillnader på? Du har nog listat ut vid det här laget att nästan alla fynd och frågetecken motiverar vidare efterforskning. Exempelvis inom Västra Götalandsregionens verksamhet är det intressant att jämföra segmenten ”användare på primärvårdens webbplats” med ”de på folktandvårdens webbplats”. Eller möjligen om det nu på landstingsövergripande nivån egentligen är vård folk letar efter trots att vi redaktionellt försöker lyfta fram helt andra saker, som; regionutveckling, kultur, kollektivtrafik och andra fokusområden.

Det kan vara mycket lärorikt att kolla vilka som är de vanligaste sökorden inom respektive segment, eller om det finns enkla vinster i att fixa vanliga nollresultat som gör stor skillnad för en prioriterad användargrupp.

Har du full koll på nollresultaten?

Kanske det enklaste inom sökanalys, och för en sökredaktör att ta tag i, är när användaren söker på något men inte får några träffar. Det är i de flesta fall ett fatalt misslyckande och en ovillighet till samhälllsservice i vårt fall. Ibland kan det vara så att någon söker efter något som inte har med oss att göra. Exempelvis är det vanligt att folk tror att Länsstyrelsen för Västra Götaland och Västra Götalandsregionen är samma organisation. Men samtidigt, vem kan klandra dem? Det är ju inte top-of-mind för våra medborgare att ha stenkoll på alla delar av offentlig sektor, även fast vi kan tycka att de borde komma ihåg mer samhällskunskap (men så bildades ju VGR efter majoriteten av våra medborgare gick ut ur skolan…).

Snarare är det kanske vårt problem att hjälpa folk till rätt samhällsaktör. I en utbildning om att vara offentliganställd jag nyligen gick så lyfte man fram vikten av att ge god service, och även när det var så att någon kommit till fel myndighet så ska vi vägleda dem vidare. Våra sökfunktioner borde inte vara ett undantag. Jag har till och med hört talas om att vissa organisationer som haft ’google’ som sitt vanligaste sökord helt sonika skickar sina sökanvdare vidare till Google, istället för att visa ett internt sökresultat.

Nollträffar i sök på vgregion.seTekniken för att hantera irrelevanta, underliga eller oväntade sökfrågor kan hanteras med best bets, sponsrade träffar, men också ibland för key-matches. Det motsvarar reklamytan på externa sökmotorer. Här har du chansen att hänvisa de som söker på ”fel grejer” till externa aktörer, eller att skjuta in en träff för sånt som egentligen inte existerar i sökmotorns index. Det kan exempelvis handla om att användarna söker efter ett IT-system som inte är omnämnt någonstans vad sökmotorn känner till. Det en key-match gör då är att erbjuda en länk direkt exempelvis till inlogggningen för systemet, eller vad du nu tror användarna förväntar sig.

Här intill kan du se vilka som är de vanligaste nollresultaten när användaren påbörjat sin sökning på vår externwebb – vgregion.se – under januari 2016.
Listan erbjuder snabbt ett antal intressanta fynd. ’regionskalender’ är ett internt system, fast det är felstavat då det officiellt heter Regionkalendern. Nollresultatet för denna träff är helt enkelt lätt åtgärdad med en sponsrad träff överst i ett tomt resultat där vi hänvisar till just Regionkalendern, utöver det så har vi en rättstavningsfunktion som för det mesta föreslår det korrekta namnet. Poängen är att provsöka respektive vanligt nollresultat och se vad som händer. Om användaren är helt utelämnad behöver vi som jobbar med sök eller innehåll hjälpa till.

Resten av nollresultaten tycks nästan alla ha med vård att göra. Kruxet är att vgregion.se inte i någon större utsträckning egentligen avhandlar ämnet kring vård eller hälsa. Däremot så hänvisas den intresserade till 1177 Vårdguiden, Närhälsan (primärvården alltså), Folktandvården eller någon av alla våra sjukhusgrupper.

Verksamhetsmål för att definiera framgångsrik sökfunktion

Inom övrig webbanalys är man illa tvungen att ha mätbara mål för att inte framstå som en förvirrad avsändare av en webbplats. Det gäller att vara tydlig med vad målet med webbplatsen är, få användarna att förstå målet och hjälpa dem på traven mot att fullfölja de mål som finns. Målen behöver förstås vara mätbara.

Här kommer sökfunktioner och sökanalys lite på skam jämfört med webbanalys i stort, det är lite av ett svart får i sammanhanget. Hur tusan mäter du att sökfunktionen bidragit till måluppfyllelse för verksamheten? Hur räknar du ROI – Return of Investment? Jag måste medge att det är svårt! Men samtidigt, jag har mött stora industriföretag som gjort tunga investeringar i sök som en plattform och de har antalet sökningar som en KPI. Motiveringen? Söks relevans ger bättre resultat i de enorma datamängderna de handhar än manuellt letande, alltså är en sökning per automatik god.

Det där kan absolut jämföras med vad engelsmännen kallar vanity metrics, att mätvärdet i sig ger bra magkänsla hos den som kom på det. Men det är samtidigt inte helt enkelt att motbevisa.

Många fastnar också i fällan att försöka bevisa nytta genom insparad tid. Visst är det ett effektivitetsmått om man värnar användarens uppmärksamhet. Samtidigt har användare inte direkt något emot många uppenbara delmoment så länge som de är övertygade om att de är på väg åt rätt håll. Och vad skulle de gjort med tiden som blev över?

Något jag noterat som en ytterst saklig poäng med sökfunktioner för internt bruk är om man kan visa på möjligheten att undvika risken att någon agerar på utgången kunskap. En sökfunktion har en unik översikt över innehållet. Ett KPI jag åtminstone skulle kunna stå upp för är ”genomsnittlig tid sedan senaste revideringen av innehållet”, alltså mätt på det innnehålll som får klick av användare. Om materialet blir allt äldre har man definitivt ett problem. Eller?

Sen har vi alla anti-mål, inte att förakta. Som att man aldrig någonsin ska hamna på ett nollresultat vid sökning på ett ord/synonym som relaterar till de prioriterade målen man har med sin digitala närvaro. Här får sökfunktionen genom sin sökanalys bistå och ärva alla indexerade webbplatser och intranäts verksamhetsmål. Man kanske inte hinner med alla mål, men börja med de viktigaste.

Om man bara tar sig en timme sökanalys per månad – vad gör man då?

Det finns alltid ett enkelt svar på tidsbristen: Agera användare, sedan fixa det värsta först!

Vill du ha kategoriska svar och förenklad världsbild? Ok, jag har enligt uppgift svart bälte i just denna sport. Det här skulle jag gjort av min enda timme varje månad:

  1. Provsök de vanligaste sökbegreppen, börja uppifrån. Där du är övertygad om att material saknas i topp-3 i träfflistan så fixar du till innnehållet så de kan klättra i träfflistan. Hur? Snacka med din sökleverantör om exakt hur du överlistar er relevansmodell?
  2. Fixa nollresultaten! Detta ordnar du genom att redigera befintligt innnehåll som har med detta att göra, skapa key-matches eller så skapar du en sida på webbplatsen/intranätet som tar hand om de som söker efter detta material. Tips: döp sidan till det sökbegrepp som används så kommer sökmotorn att hjälpa dina användare fram.
  3. Gruppera innehåll, segmentera, leta efter säsongsvariation och utforska i största allmänhet. Försök lära känna användarna av sök. Har du tidsnöd – kolla efter avvikelser och underligheter, sedan utforskar du dessa.

Gör du bara dessa tre punkter under en timme per månad så kommer du göra stor nytta för dina användare. Användarna av våra egna sökfunktioner är tacksamma, det är inte många som tycks bry sig om dem, konstigt nog, trots att de redan är på våra webbplatser. Särskilt med tanke på vårt intresse att attrahera nya användare kan det förefalla märkligt att inte ta hand om dem när vi väl fångat in dem på våra webbplatser. Eller hur?

Galleri – insyn i VGRs sökanalysverktyg Kibana

En av de främsta fördelarna med att jobba i offentlig sektor är att man är just offentlig med det mesta. Hur vi jobbar med sökanalys är inget undantag, inte heller mörkar vi med den data vi har. Räknas det som allmän handling utan sekretess-bekymmer och inte tar lång tid att plocka fram så ska vi hjälpa till. Det är lagen. Men för att underlätta lite så kan du börja med att kolla på nedan bilder. Är det något särskilt intressant du tror vi kan gräva fram så hör av dig.

Det ryktas om att en kommun söder om VGRs upptagningsområde kommer släppa sin webbplatsstatistik som öppna data. Vi kommer nog inte gå så långt än på ett tag, men det betyder inte att det är hemligt.

Du som inte tycker detta var djuplodande nog kan kolla in e-boken Search Analytics for Your Site av Louis Rosenfeld 🙂

Lycka till!

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *