”Doing AI”, Rich Heimann

Pluskund

Alla vill hålla på med AI. Men vad är det egentligen? Och vad ska man ha det till? Rich Heimann, AI-chef på cybersäkerhetsföretaget Cybraics, har skrivit en bok som ganska bryskt tar ner de högtflygande visionerna på jorden. En praktisk handbok för den som vill söka lösningar på konkreta och nu existerande problem och som handlar lika mycket om hur man använder AI som vad man inte ska ha AI till.

Liknande innehåll hittas här:
Ledarskapsbiblioteket

Lyssna eller läs i Chefboken-appen

.

Du använder väl Chefboken-appen? Den gör det enklare att läsa och lyssna, oavsett var du är. Du som Chefboken-prenumerant kan ladda ned ljudfiler för offline-lyssning och spara de summerade böckerna i ditt personliga bibliotek. Det är enkelt att komma igång: Ladda ned appen ”Chefboken” i App Store eller Google Play – du loggar in precis som på Chef.se.
Läs mer om Chefboken-appen »

Därför valde vi den här boken

Även om vi inte läser lika mycket om artificiell intelligens (AI) som vi gjorde för några år sedan betyder det inte att AI var en tillfällig fluga. Tvärtom påstår många att de arbetar med AI i någon form. Men stämmer det?

Doing AI är en AI-guide för realister. Du lär dig att genomskåda floskler och futuristiska scenarier för att i stället få reda på om – och i så fall hur – AI kan hjälpa dig och din organisation redan i dag. Boken är mer en handbok och mindre sci-fi – därför valde vi den.

Tre saker du lär dig av att läsa boken

  1. Att inte betrakta AI som en färdig lösning – som din organisation måste hitta ett problem till.
  2. Att förstå vilka problem AI faktiskt kan hjälpa dig med.
  3. Att genomskåda grandiosa AI-planer som snarare handlar om att skapa hajp än att utveckla en organisation och dess leverans.

Om författaren

Rich Heimann är AI-chef på världens första AI-baserade cybersäkerhetsföretag, Cybraics. Han har lång erfarenhet av att arbeta med data och teknologi. Heimanns akademiska område är statistik, ett nästan uteslutande praktiskt fält. Det kan vara orsaken till hans besatthet av att fokusera på problem och problemlösning, snarare än att låta sig förblindas av moderna lösningar. I sitt nuvarande arbete är det exakt det som är Heimanns primära uppgift: Att se till att AI hjälper företaget att lösa faktiska och konkreta säkerhetsutmaningar, snarare än att hitta akademiskt hypotetiska utmaningar som tekniken kan ta sig an.

Artificiell intelligens (AI) är ett samlingsnamn på en kategori tekniker som handlar om att maskiner, eller programvaror, lär sig att lösa problem som kräver intelligens.

AI-tekniken är redan vida utbredd och snart något vi alla kommer att interagera med så gott som hela tiden.

Författaren till boken Doing AI, Rich Heimann, är frustrerad över hur organisationer talar om AI och dess potential att skapa bättre kundupplevelser, effektivare verksamheter och förmåga att lösa fler problem. Enligt Heimann har just organisationers problem fallit i skymundan i takt med att lösningen AI blivit allt mer populär. 

Doing AI är således inte en regelrätt bok om AI – den sätter i stället problemlösning i centrum. Och det behövs, eftersom AI de senaste åren allt mer betraktas som den kittlande lösning organisationer anstränger sig för att hitta problem till. Tyvärr lyckas de inte så ofta.

Den som vill få sin organisation att använda AI behöver därför först bli en mästare på att identifiera problem värda att lösa, sedan bryta ner problemen till delar som går att adressera. Först därefter får man se om just AI kan bidra till att lösa problemet. Att vara en organisation som använder AI är alltså egentligen att vara en organisation som sätter organisationens och kundernas problem först, och lösningarna sist. Hur du och dina kolleger undviker att göra detta är det främsta syftet med Doing AI. Det blir alltså mer problemlösningsteknik än svävande framtidssnack. 

Definitionen av artificiell intelligens

Ordval och definitioner är av mindre vikt när det kommer till att faktiskt börja arbeta med AI. Faktum är att de kan stå i vägen för det som faktiskt spelar roll: Att lösa rätt typ av problem. 

Trots det är det bra att ändå backa bandet något. Faktum är att när forskningsfältet var i sin linda föreslog några av dess pionjärer att man skulle kalla det man utvecklade för ”komplext informationsprocessande”. Man kan fundera över om vi haft lika många domedagsscenarier och en lika utbredd rädsla för att maskiner en dag tar över världen om det begreppet hade vunnit. I stället vann det mer ambitiösa, om än vaga, begreppet Artificiell Intelligens, AI: En teknisk lösning som kan lösa uppgifter som egentligen kräver mänsklig intelligens. Tyvärr har vi ingen mer konkret definition än så, men exakt vad vi kallar lösningen är som sagt inte det viktiga.

Problem först, lösning sen

En patrullerande polis får syn på en förvirrad man som kryper runt på alla fyra i ljuset av en gatlykta. Polisen frågar vad mannen letar efter som snabbt svarar ”mina nycklar”. ”Så du har tappat dem här någonstans?”, undrar polisen. ”Jag vet inte”, svarar mannen, ”men det är bara här under lampan jag ser något”.

Denna påhittade anekdot beskriver en typ av felagerande som kallas för gatlykte-effekten. Det innebär att man söker efter något, men bara på platser man har tillgång till och som man förstår. När det kommer till AI drabbas många av den här tankefällan. Det kan handla om AI-experten som kan tekniken och vet vad den kan åstadkomma, och därför främst letar efter problem som hen vet att AI kan lösa. Det kan också handla om en person i en organisation, som är så fast i bilden av vad företaget gör och hur det gör det, att hen inte längre tänker på själva syftet; vilken typ av problem som verksamheten löser åt dess användare.

Den som vill undvika att drabbas av gatlykte-effekten bör sträva efter att skapa strategier som utgår från problem, snarare än lösningar. Då blir det tydligt hur fel det kan bli när organisationer blir besatta av att ”ha en AI-strategi”. Ett företags strategi bör ju fokusera på att lösa de viktigaste problemen användarna eller kunderna upplever – oavsett hur lösningen ser ut.

Utmaningen blir således att våga stanna kvar i problemet. Som Einstein lär ha sagt: ”Har du 20 dagar på dig att lösa ett problem bör du lägga 19 dagar på att definiera problemet.”

Heimann tycker sig se alltför många organisationer som blir kära i AI-baserade lösningar. Storslagna sådana, med ambitionen att lösa alla sorters problem. Det är just den bilden många har av AI – att tekniken en dag ska leda till en superintelligent programvara som lär sig att lösa alla problem snabbare och snabbare. 

Företag som sätter allt fokus på att skapa möjliga generella lösningar kommer snabbt att fastna i en rad fällor som tar dem längre och längre ifrån att skapa faktiskt värde för sina kunder:

  • De funderar mer på vad en framtida lösning skulle kunna vara, än på dagens lösningar.
  • De fokuserar på vilken effekt framtida lösningar kommer att ha, snarare än vad man behöver uppnå i dag.
  • De fokuserar mer på abstrakta problem och godtyckliga lösningar, än på de problem som användarna säger att de har.
  • De blandar ihop sina egna önskemål, som att få fram en futuristisk lösning, med mål som faktiskt skapar värde.

AI har fått orimligt mycket utrymme under de senaste åren, vilket lett till att många börjat fundera över hur deras egen organisation kan använda sig av det. Detta är ytterligare en tankefälla, ju mer vi hör om en teknisk lösning, desto mer benägna blir vi att försöka använda den.

Det är värt att påminna sig själv om att när det handlar om lösningar, är det de högst specialiserade som skapar mest nytta. Ingen har lyckats skapa värde för den breda massan med hjälp av artificiell intelligens. Google har tillverkat en rad specifika tekniska lösningar som används av miljontals människor; sökordsannonsering, kartor osv. Att de har lyckats så väl beror på att de valt att fokusera på ett specifikt problem som människor faktiskt har upplevt, till exempel att få relevanta sökresultat på internet.

Tre nivåer av artificiell intelligens

När det pratas om AI nämns ofta tre typer av artificiell intelligens. 

  1. Smal AI (artificial narrow intelligence) är teknik med uppgiften att lösa något väldigt specifikt, och att göra detta helt okej. Röstassistenter som Siri och Alexa är att betrakta som smal-AI. Detsamma gäller Apples Face ID. AI-lösningar som slår världsmästare i schack är också exempel på smal-AI, eftersom de kan ha en fantastisk schackförmåga, men inte förflytta den till ett annat brädspel.
  2. Generell AI (artificial general intelligence, AGI) är ofta det många ser framför sig när de hör begreppet artificiell intelligens. Här talar man om en maskin som kan ta sig an mängder av problem och bemästra dem. Bokens författare har inte mycket till övers för de företag som strävar efter att skapa AGI. Heimann är intresserad av att lösa problem som kunder faktiskt har, snarare än att investera tid i en generell problemlösningsmaskin.
  3. Artificiell super-intelligens (artificial super intelligence, ASI) är den sorts AI man talar om som en ”intelligensexplosion”, där en AI blir så smart att den lär sig och ständigt förbättrar sig själv. Exakt vad detta innebär eller hur och när ASI uppstår förtäljer inte den här historien.

När AI skapar affärsnytta

Låt oss titta närmare på två AI-baserade lösningar. Först har vi den japanska livsmedelsproducenten Kewpie som tränade ett AI-program med bilder på defekta och högkvalitativa potatisar. Att skilja bra potatisar från dåliga var nämligen något företaget lade väldigt mycket arbetskraft på. Genom att lära ett dataprogram att se skillnad på olika sorters potatisar lanserade man inom sex månader ett automatiskt sorteringssystem som gjorde lika korrekta bedömningar som människor, men till en betydligt lägre kostnad. Totalt sparade man 100 000 dollar per produktionslina på AI-produkten.

Nästa exempel är skapat av snabbmatskedjan Kentucky Fried Chicken (KFC). För ett par år sedan skapade de HARLAND, en mjukvara som utgick från AI-baserade lösningar inom taligenkänning och så kallad text to speech-tekniker. Lösningen lanserades vid ett par av kedjans drive-thru-restauranger och gjorde det möjligt för kunder att lämna sin order via en röst som liknande kedjans legendariska grundare Harland Sanders. En av dessa AI-lösningar adresserade ett affärskritiskt problem, en var på sin höjd en rolig gimmick. Tyvärr har lösningar som HARLAND fått mycket mer uppmärksamhet, vilket bidragit till att så många organisationer fått en skev bild av vad en AI-baserad lösning kan bidra med. 

Att jämföra dessa båda ger också en tydlig bild av hur trubbig en bred lösning ofta blir. HARLAND var tänkt att fånga upp många olika typer av beställningar från alla möjliga typer av gäster. Kewpies potatissorterare skulle bara göra en enda sak – skilja bra potatisar från dåliga. Den sistnämnda gick snabbt att färdigställa och skapade affärsvärde. Den förstnämnda resulterade främst i många arga och förvirrade kommentarer på Youtube.

För att säkerställa att ert eget utforskande av AI och dess möjligheter verkligen utgår från verksamheten och era kunders behov, bör ni undvika att koppla era mål till själva användningen av AI. Målen bör i stället kopplas till era problem

Ett annat sätt att undvika misstag som HARLAND är att utse en medarbetare som får uppgiften att vara gränssättare. Hen får till uppgift att tolka de lösningar ni föreslår, förklara dem i termer som både ni och era kunder förstår och framför allt se till att allt ni gör kopplas till er verksamhet och dess affärsmodell. Gränssättaren ska säga stopp om eller när ni fastnar i vilken typ av AI ni sysslar med.

Författaren Rich Heimann är själv överraskad över hur ofta han ombeds hjälpa sina kunder att definiera AI. Hans svar blir alltid detsamma: På vilket sätt är definitionen en viktig del av att lösa ert problem?

AI – mycket hajp, lite verkstad

2017 visar David Hanson, vd för robotföretaget Hanson Robotics, upp sin skapelse Sophia i tv-programmet Tonight show with Jimmy Fallon. Sophia påminner på många sätt om en talande skyltdocka, som kan göra diverse mindre ansiktsuttryck och svara på tilltal. ”Hon är i princip levande” säger Hanson, märkbart stolt. Programledaren Jimmy Fallon, publiken och en rad investerare ställer sig helt okritiska till Hansons påstående och ingen frågar honom vilket konkret och reellt problem som dockan Sophia löser. 

Historien om Sophia är en så kallad AI-teater, det vill säga uppfinnare och företag utnyttjar det faktum att människor så gärna ger döda ting mänskliga egenskaper. Vem har inte tyckt sig se ansikten i exempelvis träd, eller för den delen gett sin robotdammsugare ett namn? Att klä en AI-lösning i något mänskligt är ett effektivt sätt att få uppmärksamhet och slippa kritiska frågor. Men ett ineffektivt sätt att lösa ett verkligt problem. 

Även om Sophia är lätt att genomskåda i efterhand, finns det mängder av framgångsrika projekt som just syftat till att visa att intelligent programvara kan slå mänskliga experter. IBM har ju skapat både Deep blue och Watson, två AI som lyckades slå världens bästa schack- respektive Jeopardymästare. Men att lyckas slå en expert har sällan stor betydelse i det verkliga livet. Rich Heimann menar till och med att AI som lyckats slå läkare i att diagnostisera sjukdomar inte har så mycket verkligt värde eftersom sådana utmaningar inte utgår från hur läkarens arbete faktiskt ser ut.

Det finns också en kategori AI-lösningar som faktiskt uppfyller sitt syfte, men på ett krångligt och dyrt sätt. En sådan lösning är den algoritm vars skapare belönades med en miljon dollar av Netflix. Företaget hade nämligen utlyst en tävling där den som skapade den mest träffsäkra rekommendationsmotorn fick en miljon dollar. Lösningen skapades, men den implementerades aldrig eftersom den var för krånglig. Det visade sig dessutom att Netflix användare inte var så kräsna när det gällde rekommendationer som företaget först befarat.

Som du kan se har det alltså hänt en hel del på AI-fronten de senaste åren. Mycket har varit spel för gallerierna, en hel del har varit lösningar på problem som inte var problem. Men en hel del har också handlat som specifika lösningar som har skapat massor av värde. 

Men framför allt har det skrivits väldigt mycket om AI. På Amazon kan man hitta över 30 000 böcker om ämnet. Bokproduktionen är dock inte alls en reflektion av hur mycket AI-utveckling som faktiskt sker. 

När investmentbolaget MMC Ventures granskade 2 830 europeiska företag som påstod sig jobba med AI visade det sig att hela 40 procent av dem inte gjorde någonting alls som gick att benämna som AI. Samtidigt är det svårt att klandra företag för att de skarvar lite kring exakt hur mycket AI de faktiskt jobbar med. Incitamenten är sådana att den som överdriver har mycket att vinna. Startups som hävdar att de jobbar med AI har i snitt fått 15–50 procent mer riskkapital av investerare än bolag som inte påstår sig jobba med AI.

Ytterligare ett tecken på att det är mycket snack men lite verkstad, får man om man tittar närmare på utvecklarplattformen Github. På Github kan 31 miljoner användare dela med sig av kod de skrivit, och ge feedback på det andra skrivit. Koden sorteras in i så kallade datakataloger (repositories) och fram till 2022 hade användarna bara skapat 100 kataloger som matchar sökningar efter just artificiell intelligens. Att det går 300 böcker per programmeringsprojekt kan vara en fingervisning om att det är enklare att skriva om AI än att faktiskt skapa intelligent mjukvara. 

Den som studerar innehållet i de 30 000 böckerna om AI ser också snabbt att det sällan handlar om vetenskapliga eller praktiska guider utan att många av böckerna har en mer filosofisk inriktning.

Big data är inte allt

En trend som är nära besläktad med AI-trenden är den som handlar om så kallad big data, alltså det faktum att allt fler blir uppmärksamma på att organisationer faktiskt samlar in mängder av data. Förutsättningarna för att analysera stora mängder data har förbättrats, vilket i sin tur fått organisationer att tro att de måste samla på sig ännu mer.

Att ha som mål att samla in mer och mer data utan särskilt syfte kan, precis som målet att man ska börja använda en viss teknisk lösning, skymma sikten. Visst, det finns ett löfte om att mer data kommer att bidra till bättre lösningar, men för de flesta finns det ingen tydlig affärsnytta i att samla på sig mer data.

Hitta rätt problem att lösa

Anledningen till att boken är så problemorienterad, snarare än lösningsfokuserad, beror på att de mest framgångsrika ledarna, och således också organisationerna, är de som löser rätt problem. Men hur lyckas du med detta?

Det viktigaste du måste lära dig är att skilja på problem och problem. Det finns nämligen olika kategorier av problem, och de flesta är inte värda att lägga tid på. Det är inte bara Einstein som talade om vikten av att lägga mycket tid på att förstå och definiera det problem man ska lösa. Apples grundare Steve Jobs lär ha sagt: ”Om du definierar ditt problem rätt kommer lösningen nästan automatiskt.”

Låt oss nu titta på ett par olika sorters problem så att du och dina kolleger kan lära er att identifiera vad som är värt att lägga tid och resurser på.

Vi börjar med så kallade bedragarproblem. Det är den typen av problem som vi blivit medvetna om på grund av att vi hittat en väldigt spännande lösning vi vill använda. Att lägga energi på bedragarproblem är naturligtvis inte bra för någon eller något, allra minst verksamheten. Du känner igen ett sånt problem på att det är omöjligt att prata om problemet utan att också prata om en specifik lösning.

Nästa kategori kallas guldlocksproblem, vilket självklart kommer från sagan om Guldlock och de tre björnarna. Kategorin har fått sitt namn för att den här typen av problem är ”precis lagom” svåra att lösa. Precis som Guldlock som sökte efter den lagom varma gröten och den lagom mjuka sängen, riskerar organisationer att hitta problem som inte är för svåra, men inte heller för lätta. Att sådana ”mellanmjölksval” skulle vara rätt problem att lösa är högst osannolikt.

Det finns också en kategori som kallas för föräldralösa problem. Sådana problem är verkligen värda att lägga tid på, men ingen gör det – därav namnet. Problemen är ”föräldralösa” som en konsekvens av att man lägger sin tid på bedragar- och guldlocksproblemen.

Sen finns det de lätta problemen, lätta eftersom de är uppenbara, väldefinierade till sin natur och alltså lätta att lösa. I en önskan att verka handlingskraftiga kan team och organisationer välja att lösa de lätta problemen. Problemet är att de sällan har ett tydligt affärsvärde. Säg att ett problem uppstått utifrån en önskan från vissa kunder. Det kan handla om en liten förenkling som gynnar just dem. Är det värt att anpassa sig till kunder som är så omotiverade att de ger upp vid minsta motstånd? Ibland, men långt ifrån alltid.

Motsatsen till de lätta problemen är såklart de svåra, men det betyder inte att det är dem som ni alltid ska sträva efter att lösa. Gemensamt för alla svåra problem är att de är dåligt definierade, vilket alltid resulterar i klumpiga lösningar. Dessutom finns de ofta i en kontext som är i ständig förändring. Problem kring it-säkerhet eller självkörande bilar är typiska svåra problem. Landskapet de befinner sig i förändras hela tiden, det är därför de är så svåra att lösa, med eller utan AI. 

Jämför sådana problem med Kewpie och deras potatisar. Potatisarna finns på ett rullband och det handlar om bra jämfört med dåliga. Kontexten är stabil, och det önskade utfallet är alltid detsamma. Det är ett lätt problem, och som du förstår är de ibland värda att ta sig an. Detsamma gäller svåra problem.

När arbetsgrupper pratar om lätta problem följer de ofta ett mönster som fått namnet Parkinsons lag om trivialitet. “Lagen” menar att arbetsgrupper tenderar att lägga mer tid på att prata om enkla problem, vilket i sin tur leder till att mer tid och resurser läggs på dem. En konsekvens av det är att grupper inte löser enkla problem för att de är oense om hur de ska lösas. För svåra problem är det dock tvärtom, det som gör att grupper misslyckas med dem är att de når konsensus alldeles för snabbt.

Frågorna som hjälper dig hitta rätt problem

En tumregel när det gäller att identifiera verkliga problem är att fråga sig själv hur gammalt problemet är. Att hitta ett problem som så gott som alltid varit relevant är ett säkert sätt att ta sig fram.

Samla några kolleger och försök svara på frågorna nedan nästa gång ni behöver identifiera vilka problem ni ska ta er an:

  1. Vad är problemet?
  2. Är det rätt sak att fokusera på, givet våra andra utmaningar?
  3. Är det ett problem som just vi bör ta oss an?
  4. När dyker problemet upp?
  5. Under vilka förhållanden uppstår problemet?
  6. Hur påverkar problemet våra kunder?
  7. Hur mycket förändring kommer att krävas för att lösa problemet?

Summering: Så gör du AI

Sammanfattningsvis är det värt att ännu en gång repetera att det viktiga för verksamheter är problemlösning, och att de problem man tar sig an utgår från vad kunder och användare faktiskt behöver. Att börja med AI är att börja med lösningen, vilket som bekant aldrig är en bra start. 

Boken avmystifierar en hel del av den futuristiska hajp som finns kring AI, och lämnar läsaren med en försäkran om att maskiner aldrig kommer att ersätta människor. Visst, de kan ta över många av våra sysslor, men Heimann ser det som högst osannolikt att vi är i närheten av den dag då maskiner identifierar och utför sådant arbete som människor varken hade kunnat identifiera eller utföra. 

Du som har identifierat ett problem där AI kanske faktiskt kan vara en möjlig lösning, kan följa Heimanns tre råd för hur du kommer igång med att lösa problem med hjälp av AI.

  1. Häng inte upp er på vad ni kallar lösningen eller den korrekta förkortningen för det ni arbetar med. 
  2. Börja smått. Välj hellre en liten lösning än något stort. Du kommer garanterat att komma till den stora lösningen en vacker dag, men att börja i den änden kommer att göra slut på alla tillgängliga resurser. Stora framsteg behöver inte innebära stora, visionära totallösningar för framtiden, bara lösningar som är bättre än dem ni har i dag.

    Här är några exempel på små lösningar som är lite bättre än era nuvarande lösningar:

    • Regelbaserade algoritmer som löser uppgifter utifrån en uppsättning regler, att jämföra med maskininlärning, som alltså ”lär” sig reglerna genom att studera stora dataset.

    • Linjär regression, en metod hämtad från statistikens värld som handlar om att förstå samband mellan input och output och hur olika variabler relaterar till varandra. Linjär regression kan exempelvis göra säljprognoser genom att ha identifierat sambandet mellan olika variabler och försäljning.
  3. Sträva efter bra lösningar hellre än perfekta lösningar. Sådant som löser verkliga problem behöver faktiskt inte kunna göra allting. Det enda som de behöver göra är att lösa rätt problem.

Redan PLUSkund — Logga in

Bygg vidare med fler tjänster

Nå nästa nivå med

Chefakademin+

Få de viktigaste insikterna, handplockade nyheter, och ledarskapsutveckling – på ett sätt som fungerar i din vardag.

Endast 349:- / mån*
  • Omvärldsbevakning – senaste ledarskapsnyheterna och -forskningen, samt andra ämnen som direkt rör chefsrollen.
  • Tidningen Chef – tidningen hem i brevlådan 11 gånger per år och tillgång till hela tidningsarkivet.
  • Digitala masterclasses – upskill med tillhörande workshopsmaterial som du kan använda på din arbetsplats.
  • Ljudboksbibliotek – ett digitalt bibliotek där du kan lyssna på sammanfattningar av de viktigaste ledarskapstitlarna!

*Faktureras halvårsvis eller årsvis. Tjänsten förnyas automatiskt om den inte sägs upp före sista giltighetsdatum.
Läs villkoren
Läs om Chefakademin+