5 säkerhetsrisker med AI – så bör chefen agera

Se upp Långt ifrån all AI-användning bland medarbetarna är säker. AI-experten Dan Bergh Johnsson listar fem AI-(o)vanor som kan hota organisationens säkerhet – och tipsar om hur du som chef bäst kan hantera riskerna.

Digital utveckling
Publicerad

Vad

Anställdas oreglerade användning av AI-verktyg kan medföra säkerhetsrisker och dataläckage.

Nytta

Fem områden att vara uppmärksam på som chef när det gäller AI-användningen i din organisation.
Dan Bergh Johansson, Omegapoint.
Dan Bergh Johansson, Omegapoint. Illustrationer: Anna Harvard.

ÄR DEN SNABBA AI-utvecklingen ett hot eller en möjlighet? Svaret är långt ifrån självklart om du frågar Sveriges chefer: en tredjedel av beslutsfattarna ser AI mer som en risk än ett stöd, enligt rapporten Svenskt säkerhetsindex 2026.

”Med AI finns för första gången en teknik som talar med oss människor på ett personligt sätt. Det triggar oss att bli förtroliga, vilket definitivt är en av grunderna till många subtila säkerhetsproblem”, säger AI-experten Dan Bergh Johansson på konsultföretaget Omegapoint som tagit fram rapporten.

Det ovanstående betyder inte att organisationerna nödvändigtvis bör avstå från att använda artificiell intelligens, menar han, men klart är att kraven på ledarskap och organisation har ökat.

Här är fem vanliga riskbeteenden förknippade med AI och tips om hur chefer bäst kan hantera dem.

1. Känslig information matas in i AI-verktygen

Interna uppgifter, affärsinformation, detaljerad kunddata … AI-verktygen använder sig av ett personligt tilltal och är pigga på att ställa intresserade följdfrågor för att konkretisera diskussionen. Tonen blir gärna förtrolig och ju fler frågorna blir, desto större är risken att du delar med dig av känsliga uppgifter som du aldrig skulle sprida i ett SMS eller ett mejl.

”Bestäm i förväg vilka uppgifter som inte får förekomma i konversationerna med AI. Det kan handla om riktiga namn, kunder, exakta siffror och incidenter. Säkerställ att gränserna är tydliga för alla”, säger Dan Bergh Johansson.

2. AI-genererat material granskas för dåligt 

Eftersom AI-svaren ofta ser rimliga ut, finns risk att kontrollen blir slarvig eller uteblir. Vilket i sin tur riskerar att felaktigheter sprids vidare både inom och utom organisationen, vilket kan stå företagen dyrt. Exempelvis tvingades Air Canada betala skadestånd till en resenär som fått felaktig information från en chattbot som matats med skadlig kod. 

”Utgå från att AI inte är felfritt, och att felaktigheter och svaga resonemang behöver åtgärdas. Ett knep är att be en kollega att kritiskt granska den text du tagit fram med hjälp av tekniken. Man kan också låta AI själv leta efter problem, men i en ny chatt eller annat format. Som chef behöver du också vårda och uppmuntra en öppen och kollegial diskussion.” 

3. Medarbetare tar AI-initiativ bortom arbetsgivarens kontroll 

Det kallas för skugg-AI, när medarbetare inser att tekniken kan bli ett viktigt arbetsverktyg och testar egna lösningar i brist på befintliga riktlinjer och system. Men användningen av gratisversioner och privata konton kan leda till att data hamnar på ställen bortom arbetsgivarens insyn eller kontroll. 

”Att som chef bemöta användningen av skugg-AI med förbud eller skuldbeläggning kan ta död på medarbetarnas engagemang. En bättre strategi är att svälja förtreten, se det som ett uttryck för nyfikenhet och viljan att göra ett bra jobb. Fråga vad medarbetarna vill uppnå och försök tillsammans att hitta säkra och effektiva sätt att jobba med AI”, säger Dan Bergh Johansson. 

4. AI blir organisationens egen röst 

På ett ofta subtilt sätt kan AI bidra till att analyser, policys och strategiska resonemang drar i väg i oförutsägbar och oönskad riktning, på ett sätt som inte rimmar med exempelvis lagstiftning, rådande samhällsnormer eller de värden som organisationen vill stå för. Det har till exempel visat sig att AI-modeller producerat resultat som kan leda till diskriminering av grupper och individer, sedan de lärt sig mönster av partiskhet i den data de tränats på.  

”När AI används i analyser, policys och strategiska resonemang är det viktigt att det diskuteras internt. Genom att prata igenom slutsatserna med medarbetarna och vara säkra på att ni gemensamt står för resonemangen minskar risken att organisationens perspektiv gradvis förskjuts utan att ni märker det.” 

5. Vi litar blint på AI 

Många är vana att lita på maskiner, och förlitar sig hellre på GPS än en vägbeskrivning från en människa. Enligt liknande mönster tror vi gärna på AI, vars välformulerade svar lätt uppfattas som mer exakta och tillförlitliga än de faktiskt är. Vilket ökar risken för att analyser och beslut byggs på mycket svajig grund. 

”AI ska inte fylla i detaljer du själv inte kan ta ansvar för. När AI används i analyser eller beslutsunderlag måste den som använder resultatet själv kunna stå för innehållet. Citat och hänvisningar bör alltid verifieras i originalkällor. En enkel tumregel är att AI inte ska fylla i detaljer som användaren själv inte har tagit ansvar för. Är detaljerna viktiga måste de kontrolleras. Och är de oviktiga bör de inte vara med”, säger Dan Bergh Johansson. 

Fortsätt läsa kostnadsfritt!

Vi behöver bara en minut…

Så roligt att du vill fortsätta läsa våra artiklar! Det får du strax göra, utan att betala något.

Skapa ditt gratiskonto
  • Tillgång till våra låsta artiklar och webinar gratis och utan tidsbegränsning!
  • Chefs nyhetsbrev med senaste ledarskapsnyheterna!

Dina uppgifter delas aldrig med tredje part. Läs vår integritetspolicy här.