Dålig datahygien ökar riskerna med AI
Överallt finns exempel på hur Generativ AI blir en naturlig del både av arbetslivet och privatlivet. Fördelarna lyfts fram men ständigt framförs även en växande oro för felanvändning, vilket kan resultera till oavsiktlig spridning av känslig information.
Vi har tidigare sett cybersäkerhetsrapporter som hävdar att felaktigt använd AI är en av 2025-års stora risker, speciellt kopplat till att företagets personal delar konfidentiell information med AI-verktyg. Nu lyfts nya och allvarliga farhågor fram när AI-verktyg börjar användas på ostrukturerad, mångduplicerad och inaktuell företagsdata som ingen egentligen har kontroll på eller känner ägandeskap för.
Information läggs på hög och vår lagrade information bara växer och växer
Problemet med ostrukturerad information
Många företag känner nog igen sig i problemet med undermålig datahygien. Vi skapar massvis av ny data och information men organiserar inte och tar inte bort den gamla som har blivit inaktuell. Information läggs på hög och vår lagrade information bara växer och växer.
Lägg till nästa problem, där data återanvänds och dupliceras av användarna som dessutom delar med sig av nya sina filer och dokument, som innehåller data som på ett eller annat sätt redan finns lagrat. Delning av filer görs tyvärr ofta utan eftertanke vilket dels innebär att företagets information dels riskerar att bli ännu mer ostrukturerad och dels spridas vidare utan begränsning.
Som om det inte vore nog så händer det ju ganska ofta att personer slutar och lämnar sina jobb. Det enklaste åtgärden är att göra dessa användarkonto vilande, vilket leder till att delade filer och information blir ”föräldrarlösa” och utan informationsägare.
Hur mycket av er information saknar en ansvarig ägare?
Använda generativ AI på ostrukturerad information
Att använda intern information till sitt eget AI-verktyg har länge predikats som en lösning på de tidigt identifierade riskerna med AI och spridning av känslig information. En nyligen publicerad rapport visar dock att när informationen inte har rätt kvalitet, tex ostrukturerad och mångduplicerad, så ökar säkerhetskomplexiteten avsevärt vid användning av AI. Man måste således utvärdera och förstå riskerna för att känslig data därför används och sprids utan tillräcklig kontroll.
Ytterligare risker pga skugganvändning av AI
Lägg därtill den till synes utbredda skugganvändningen av AI, som är en risk som hamnar helt utanför verksamhetens kontroll. Rapporter visar nämligen att många yrkesverksamma använder AI-verktyg på jobbet som inte är godkända av företaget som man arbetar på. Användningen sker genom privata konton på osanktionerade verktyg och verksamheten vet i dessa fall varken hur omfattande användningen av AI är eller var förtagets känsliga information tar vägen.
Stor risk att känslig data används och sprids utan tillräcklig kontroll
Struktur och processer – kanske tråkigt men absolut nödvändigt
Som vi tidigare rekommenderat är det, från ett data- och informationssäkerhetshänseende, nödvändigt att både skaffa sig och bibehålla kontroll över sin information. Detta accentueras när AI blir en del av bilden.
En tydlig struktur behövs, som innefattar riktlinjer för tex användning, lagring och delning men också som också tydliga processer och informationsägande. Det är essentiellt att förtydliga ägandeskap och ansvar för företagets olika data och information samt att även löpande kartlägga vem som har tillgång till den.
Utbildning ökar medvetenheten
Strukturerad informationshantering är essentiell och med ökade risker kopplat till användning av AI så behöver alla företag vara tydliga i sina riktlinjer. Med tydliga policys och återkommande utbildning av personalen kan man minska sina risker genom att skapa den nödvändiga kulturen för en ansvarsfull informationshantering och användning av AI genom hela företaget.
Hur kan vi hjälpa er företagsledning med att ta nästa steg?