I en cybersäkerhetsartikel konstateras att det räcker med en tre sekunder lång ljudupptagning för att cyberkriminella ska kunna klona en persons röst. En så kort ljudsnutt skulle kunna hämtas från ett videoklipp som delas på sociala medier eller kopieras från ditt svarsmeddelande på din voicemail.
Många tror sig säkert kunna känna igen en AI-klonad röst. Tyvärr verkar det som att man inte ska känna sig alltför säker på den saken.
Ett exempel som nämns är en amerikansk mamma som nästan blev offer för ett virtuellt kidnappningsbedrägeri, där en klonad röst på ett övertygande sätt härmade hennes dotters rop på hjälp. Ett hänsynslöshet exempel på AI-bedrägeri, där en form av social manipulation tar sig den fulaste formen.
Bedrägerier med röstkapning genom AI har hittills mest inriktat sig mot privatpersoner, speciellt mot de äldre, där bedrägerier görs genom att man imiterat familjemedlemmar. Trenden är dock att AI-klonade röstbedrägerier är ett växande hot även mot företag.
En anställd på ekonomiavdelningen kan falla offer för ett samtal som denne tror kommer från VD:n, särskilt eftersom dessa typer av bedrägerier typiskt görs genom att skapa en känsla av auktoritet och brådska så att behovet av att agera snabbt blir viktigt.
Ett aktuellt exempel, från tidigare i år, hände i Italien där en framstående affärsman blev lurad i en deepfake där man AI-klonat försvarsministerns röst som bad om pengar för snabb hjälp att befria kidnappade journalister. Affärsmannen förde över 1 miljon euro men då bedrägeriet upptäcktes i tid kunde polisen spärra kontot och pengarna återtas.
Även om dessa typer av exempel finns så kan man tycka att det känns orimligt att så väldigt många ska kunna bli lurade och i stor skala. Studier från USA förutspår dock att detta och andra bedrägerier med generativ AI, kan innebära att företag i USA förlorar upp mot 40 miljarder dollar fram till 2027.
Aktörer inom den finansiella sektorn har använt röstbiometri ett tag för att identifiera kunder som tex kontaktar deras kundtjänst. Nu finns indikationer på att även denna metod blir omsprungen av AI-klonade röster. För att ligga i framkant behöver man sannolikt kombinera röstautentisering med en integrerad multifaktorsautentisering.
Teknik
Det behövs mer avancerad röstautentiseringsteknik som kontrollerar fler aspekter av en persons röst, som ton och rytm. Att bara utgå från röstkaraktär räcker snart inte längre.
Om man dessutom kombinerar röstigenkänning med beteendeanalys, som tittar på talmönster som pauser, tonskiften och stress, ökar svårighetsgraden för AI-kloning. Vi har alla subtila variationer som är ytterst svåra för AI att efterlikna.
Beteende
I en tid av sociala medier kan det kanske kännas svårt för många att begränsa mängden personlig information som delas online, speciellt ljud- och videoklipp. Men då brottslingar kan använda dessa källor för att klona både röst och bild för att utföra bedrägerier och deepfake så vore det nog klokt att försöka vara mer restriktiva.
Dock är ett av de kraftfullaste verktygen för att bygga motståndskraft klart inom räckhåll. Att utbilda er personal på ett bra sätt ökar medvetenheten gällande både förekomsten av bedrägerier och social manipulation och att vara uppmärksam på just AI-driven deepfake och röstkloning. Att personalen är medveten om, och förstår hur bedragare kan använda AI för att replikera röster i syfte att luras och manipulera, gör att man lättare får dem att ifrågasätta alla ovanliga förfrågningar, särskilt de som rör pengar eller känslig information.
Hör av dig så hjälper vi er att skapa både en större motståndskraft och en ökad cybertrygghet!
Nu sprids nyheter om ett nytt cyberhot kopplat till AI, nämligen fake-AI, där användare presenteras med ett verktyg som för generativ AI som kan skapa en video av en bild. Men istället för en videofil så laddar användaren ner skadlig programvara.
När vi tydligt ser hur AI blir en naturlig del både av arbetslivet och privatlivet, finns ett växande oro för felanvändning, vilket kan resultera till oavsiktlig spridning av känslig information.
I en cybersäkerhetsrapport ses felaktigt använd AI som en av 2025-års stora risker. Det tydligaste riskområdet är dataläckage och händer när företagets personal delar konfidentiell information, med AI-verktyg för att skapa rapporter och göra analyser, utan att vara medveten om att någon obehörig kan få tillgång till och lagra den känsliga informationen.
Då vi ser att användning av AI-verktyg blir vardagsmat för många så använder sig millioner människor dagligen av AI för att skapa innehåll. Detta ger nu cyberkriminella en möjlighet att lansera en ny, och extremt finurlig, attackmetod, fake-AI.
Ett aktuellt exempel som marknadsförs genom annonser på vanliga sociala medier, tex Meta, erbjuder en fantastiskt spännande och tillsynes legitim AI-tjänst för att generera video från bild. Man uppmanas att ladda upp tex en bild, under intrycket att de använder riktig AI, för att generera ett filmklipp där bilden används.
Exempel på annons
När filmen ”skapats av AI-verktyget” instrueras användarna att ladda ner sin genererade film. Tyvärr laddar offren då omedvetet ned en skadlig programvara som ser ut som en mediafil. I en ZIP-fil (arkiv) finns en fil i ett förväntat filformat, tex .mp4 men som i själva verket är en infostealer eller annan skadlig programvara som då installeras av användaren när denne tror sig öppna sitt AI-genererade filmklipp.
Med den skadliga programvaran installerad kan hackaren stjäla känslig information eller fjärrstyra datorn för att åstadkomma annan skada i IT-systemet.
I den här specifika kampanjen känns det skadliga AI-verktyget igen under namn typ VideoDreamMachine, men nya falska verktyg kommer sannolikt att dyka upp, utöver andra liknande kampanjer/tjänster som redan kan vara lanserade...
Med ökade risker kopplat till användning av AI så behöver alla företag vara tydliga i sina riktlinjer gällande användning av AI. Med tydliga policys och återkommande utbildning av personalen kan man minska sina risker genom att skapa den nödvändiga kulturen för en ansvarsfull användning av AI genom hela företaget.
Företagsledningen måste leda arbetet och dessutom föregå med gott exempel!
Från att ha varit en obetydlig del och mest en oro för framtiden är nu deepfake-attacker ett snabbt växande hot. Måltavlan har främst varit den finansiella marknaden, där det rapporteras om en explosionsartad ökning, vilket gör att det finns all anledning att misstänka att deepfakes snart kommer att användas i stor utsträckning även mot andra branscher.
Det har talats om att vi i framtiden riskerar att mötas av AI-genererade bedrägerier där telefonsamtal och t.o.m. videokonferenser skulle kunna lura personer att tro att de talar med sin chef eller kollega. Rösten är den rätta, informationen är korrekt och t.o.m. privata ämnen tas upp under samtalet. Tyvärr beskrivs det i rapporter och artiklar att deepfakes inte är ett framtida hot utan används i stor utsträckning redan idag - och dessutom ökar kraftigt.
Man kan beskriva deepfake som ett sätt att imitera en person, ner till väldigt små detaljer, för att manipulera och övertyga en annan person eller kollega att utföra en viss handling. Det kan vara att föra över pengar eller skaffa sig tillgång till hemlig information.
Avancerad och AI-driven teknologi är grunden för att skapa deepfakes och tekniken är nu så kraftfull att cyberkriminella kan lyckas med dessa imitationer och deepfakes även i realtid, dvs videokonferenser.
Det mest kända stora finansiella deepfake-bedrägeriet är nog det där bedragarna lyckades stjäla motsvarande 250 miljoner kronor från ett bolag i Hong Kong. En medarbetare fick ett mejl från bolagets finanschef i Storbritannien som informerade om att en hemlig penningtransaktion behövde genomföras. Medarbetaren fattade dock misstankar men efter ett videomöte där finanschefen och andra medarbetare deltog kände medarbetaren sig övertygad och genomförde transaktionen. I videomötet såg och lät kollegorna nämligen precis som vanligt.
En annan typ av deepfake-bedrägerier som fått uppmärksamhet är när företag anställer på distans, vilket typiskt handlar om konsulter som kan erbjuda kompetens inom ett visst område. Scenariot involverar en stulen Linkedinprofil, ett CV som matchar och en distansintervju som är deepfake, vilket resulterar i en anställning som handlar om att infiltrera och stjäla information.
Ett omtalat fall i denna kategori är ett amerikanskt företag som anställde en person som utgav sig för att vara någon helt annan och med hjälp av deepfake lyckades bli anställd. Personen i fråga var egentligen nordkorean och hade, vid upptäckt, redan installerat skadlig kod i företagets system.
Utbildning av personalen för att öka medvetenheten om social manipulation och om deepfake är ett sätt att öka motståndskraften. Tydliga rutiner, instruktioner och processer är också mycket verkningsfullt men om man inte skapar en säkerhetskultur som får personalen att vilja följa rutinerna så blir de verkningslösa tomma ord.
Hör av dig så hjälper vi er!
Ett tydligt ökande hot är en nätfiskemetod som generellt beskrivet bygger på att användaren får ett fiktivt problem, tex inte kommer vidare till en hemsida, samt presenteras med ett logiskt klicka här för att lösa problemet.
ClickFix är ett snabbt växande problem och maskeras typiskt genom en falsk dialogruta eller pop-up, ofta i form av krav på att installera en nödvändig uppdatering eller verifiera att du är en människa. Det kan vara en falsk CAPTCHA, I’m not a robot eller rakt på sak en Fix it-knapp som kan kännas bekant och tryggt att klicka på, även för en hyfsat observant användare. För att komma vidare och således lösa ”problemet”, luras användaren att, utan sin vetskap, installera en infostealer eller annan skadlig programvara. Metoden är ytterst effektiv eftersom användaren inte är medveten om vad denne gör, men framför allt för att handlingen i många fall inte upptäcks av säkerhetssystemen.
Problemet med ClickFix dök upp under sensommaren 2024 och har ökat stadigt sedan dess och tycks accelerera sedan årsskiftet. Spridningen bland aktörerna tycks bred, där både cyberkriminella grupperingar och statligt sponsrade hackergrupper använder metoden för att lura sina offer och infektera med skadlig programvara.
Generellt sätt så bygger metoden på social manipulation och att utnyttja mänskligt beteende och svagheter däri. Man försätter den attackerade användaren i en situation av problem och osäkerhet samt presenterar en lösning på problemet i en bekant paketering eller form.
Vanligt är att leda användaren till en falsk hemsida där attacken utförs ifrån. Förutom nätfiskemail är malvertising, onlineannonser med skadlig kod, och sökmotorförgiftning, där hackers manipulerar resultat från sökmotorer så att falska hemsidor med onda uppsåt hamnar överst bland sökresultaten. Typiskt ser dessa falska annonser och hemsidor ut att komma från legitima och välkända organisationer.
Ett ClickFix-exempel
1. Användaren leds via nätfiske, malvertising eller sökmotorförgiftning till falsk hemsida med ClickFix
2. Hemsidan kräver att användaren klickar på en popup ”jag är ingen robot” eller liknande
3. Felmeddelande dyker upp om att det tex inte gick att verifiera användaren samt instruktioner om hur man löser problemet
4. Användaren följer instruktionen och installerar en infostealer eller annan skadlig programvara
5. Användaren uppfattar att verifieringen lyckades och surfar vidare helt ovetande om vad som hänt
Kortfattat kan man beskriva Infostealers som en skadlig programvara som i hemlighet infekterar datorer och system med ett enda egentligt syfte – att kopiera värdefull information utan att det upptäcks. När informationen är stulen har Infostealern slutfört sitt uppdrag och nästa steg för den cyberkriminelle är att sälja eller utnyttja den stulna informationen.
Den information man fokuserar på att stjäla är olika typer av användarnamn, lösenord, systeminställningar, cookies, loggfiler, mm som kan användas för att logga in eller åtminstone få fotfäste i ett företags IT-system. Därifrån iscensätts sedan andra cyberattacker eller andra bedrägliga aktiviteter. Den typiska köparen av informationen är således andra cyberkriminella som efter köptransaktionen inleder en cyber-, utpressnings- eller bedrägeriattack.
Utbildning av personalen för att öka både riskmedvetenheten och kunskapen om nätfiskeutvecklingen är ett ypperligt sätt att öka er motståndskraft, speciellt när det kombineras med toppmoderna cybersäkerhetsverktyg.
Oroande rapport från Europol avslöjar att själva DNA’t av organiserad brottslighet håller på att förändras och med det förvärras också hotbilden. Förändringen sker på flera områden som utvecklar taktik, verktyg och struktur på de kriminella nätverken och det område som listats som nr 1 bland de snabbast ökande hoten är cyberattacker.
Det är med bekymmersam blick man läser om Europol’s nysläppta rapport EU-SOCTA 2025, som är den mest noggranna analysen av organiserad brottslighet inom EU. Med underrättelseinformation från medlemsländer och internationella brottsbekämpningspartners så analyseras den organiserade brottsligheten inte bara för vad den är idag utan också hur den utvecklas, förvärras och vad det innebär. Förändringen är fundamental och innebär att den är djupare rotad och med destabiliserande än någonsin tidigare.
Kortfattat så säger rapporten att förändring inom organiserad brottslighet sker i så stor utsträckning att hela sammanfattningen får titeln ”The DNA of organised crime is changing – and so is the threat to Europe”. Traditionella begränsningar, som tidigare påverkade brottssyndikaten, är få och de de kriminella tycks dra maximal nytta av en värld av global instabilitet, digitalisering och ny teknik.
Tre kännetecken som definierar dagens organiserade brottslighet
1. Ökande destabiliserande effekt – påverkar även samhällets fundament och institutioner
2. Frodas online – gränslös och superskalbar brottsarena där dessutom möjlighet till anonymitet är stor
3. Accelereras av AI och ny teknik – används som brottslighetskatalysator då det ger möjlighet till ökad automatisering, skalbarhet, effektivitet, komplexitet, mm.
Med ett nytt kriminellt DNA så förändras hotbilden. I rapporten listas sju säkerhetshot där kriminella nätverk blir mer och mer sofistikerade och farliga. De två områden som står överst bland de sju var Cyberattacker och Onlinebedrägerier.
Den vanligaste Cyberattacken är spridning av ransomware, men också attacker på kritisk infrastruktur. Gällande onlinebedrägerier, så omnämns AI-driven social manipulation och stöld av känslig data.
Båda dessa områden är områden inom cyberbrottslighet som ofantligt många redan blivit drabbade av. Lägger vi då till de ytterligare dimensioner som beskrivs i rapporten och att hoten fortsätter att växa så gör man klokt i att se om sitt hus. Innan stormen kommer.
Det finns fördelar med AI inom otaliga branscher och cybersäkerhet är inget undantag. Men långt ifrån alla vet hur man kan dra nytta av AI för sin egen verksamhets motståndskraft.
Som vi tidigare rapporterat om så ökar användningen av AI inom den cyberkriminella världen. Därtill blir användningen mer och mer avancerad, vilket innebär att hotbilden ökar inom flera områden.
Som ett svar på denna ökande hotbild ökar även användningen av AI inom cybersäkerhetsbranschen. I en forskningsrapport estimeras att den globala marknaden för AI-baserade cybersäkerhetstjänster nästan kommer att tiodubblas fram till år 2030 från en marknad på ca 150 miljarder 2021.
En viktig anledningen till att AI har så stort värde för cybersäkerhetsbranschen är förmågan att hantera och analysera så stora mängder av data. Problem som många företag har är nämligen både relaterade till att upptäcka avvikelser och mönster i sin data och sina IT-system men också på ett effektivt sätt sortera bort falsklarm och mänskliga fel i de enorma datamängder, trafikflöden, loggar och rapporter som genereras.
Det finns ett antal områden där användningen av AI är extra fördelaktig, speciellt som vi lever i en värld med ett ständigt växande cyberhot, ökande mängder data och en större komplexitet i våra IT-system som ökar attackytan:
Förutom ovan nämnda fördelar finns andra områden inom cyberförsvaret som skulle kunna dra stor nytta av AI.
Med AI-driven penetrationstestning kan man utmana och testa sina egna system på en helt ny nivå. Med detta finns således möjlighet att hitta och rätta till säkerhetsbrister, innan de utnyttjas av cyberkriminella.
Simulering av nätfiske och social manipulation kan också förbättras med hjälp av AI, för att utveckla spetsa till träningen av personal och hjälpa säkerhetsteam att identifiera risker.
Att ta hjälp av AI för att hantera cyberattacker med otroligt kraftfulla verktyg är en stor fördel men för de organisationer som dessutom använder AI för att förhindra att attackerna sker, finns ytterligare vinningar att göra.
Att AI används och är en positiv resurs i många branscher är ingen nyhet. AI är dessutom, för väldigt många, en förhållande ny företeelse eftersom det stora genombrottet kom först när generativ AI gjordes tillgänglig på bred front.
Inom den cyberkriminella världen ser det liknande ut och nu ökar användningen snabbt. Därtill blir användningen mer och mer avancerad, vilket innebär att hotbilden ökar inom flera områden.
Generellt beskrivet så är AI-drivna cyberangrepp sådana där AI använts antingen i utvecklingen av en cyberattack och/eller som en komponent av själva cyberangreppet eller attackmetoden. AI används oftast för att förbättra och förenkla utvecklingsprocessen samt för att spetsa till existerande attackmetoder eller skadlig programkod.
• Utveckling och leverans av skadlig kod, där generativ AI används för att skriva programkoden. Växande avvändning, speciellt av oerfarna och mindre kunniga hackare.
• För avancerat nätfiske och social manipulation. Generativ AI används för att skapa traditionellt material som förfalskade dokument, text, bilder och video men även deepfakematerial. AI används också för att kartlägga och analysera kommunikationsmönster och inhämta personlig information som sedan kan användas för avancerat nätfiske och social manipulation.
• Intrång samt övervakning av system. Svagheter och säkerhetsbrister finns i nästan alla IT-miljöer och med AI har cyberbrottslingar nya och otroligt kraftfulla verktyg för att knäcka lösenord, övervaka trafik och göra sårbarhetssökningar.
• Maskeringsverktyg för att cyberattacker som tex användning av skadlig kod, intrång, datastöld, etc inte ska upptäckas. Många säkerhetssystem bygger på att identifiera en cyberattack genom programkod, mönsterigenkänning, tillvägagångssätt, mm. En mycket bekymmersam möjlighet med AI är att det möjliggör för dynamiska attacker, där en skadlig programvara på egen hand ständigt ändrar sitt beteende, signatur, programkod, mm för att undvika att bli upptäckt. AI skulle tom kunna analysera de säkerhetsverktyg som används och använda denna information som hjälp för att bättre kunna kamouflera attacken.
Det kan kännas både hotfullt och nästan hopplöst att konstatera hur hotbilden ständigt förändras och ökar. Lyckligtvis ökar även användningen av AI kraftigt inom cybersäkerhetsbranschen och har för ett stort värde i förmågan att hantera både gamla och nya hot.
En ny rapport visar att cyberkriminella ständigt utökar sitt samarbete, vilket ytterligare komplicerar en hotbild som redan är ytterst svår att överblicka och därtill ökar komplexiteten av cyberhoten ytterligare.
Kriminella organisationer är opportunister och när en möjlighet öppnas är de ofta snabba på att utnyttja den. Således är det föga överraskande att en globaliserad digital värld, med både för- och nackdelar för de allra flesta verksamheter, leder till att även cyberhotbilden globaliseras. Det framkommer även i rapporten, att påtryckningar från brottsbekämpande myndigheter leder till att hotaktörer samarbetar över gränserna.
Hotkomplexiteten ökar som sagt ständigt och både kriminella samarbeten och användning av AI driver på utvecklingen. Dessutom innebär tillgängligheten av cyberbrottstjänster, som är en är enorm och växande marknad, såsom Access-as-a-Service (AaaS) och nätfiskeattack som tjänst, mm att även ligor med låg teknisk kompetens kan utföra avancerade cyberattacker.
Hör av dig om du vill ha tips på hur ni kan minska risken för cyberintrång!
Vi kan hjälpa er med allt ifrån att identifiera era sårbarheter, en tydligt prioriterad åtgärdsplan till att övervaka era system dygnet runt och omedelbart hantera de cyberattacker och intrångsförsök ni utsätts för.
När vi tydligt ser hur Artificiell Intelligens blir en naturlig del både av arbetslivet och privatlivet, framförs en växande oro för felanvändning, vilket kan resultera till oavsiktlig spridning av känslig information.
I en nyligen publicerad cybersäkerhetsrapport ses felaktigt använd AI som en av 2025-års stora risker. Det tydligaste riskområdet är när företagets personal delar konfidentiell information, såsom finansiell information, för att skapa rapporter och göra analyser med hjälp av AI, utan att vara medveten om att någon obehörig kan få tillgång till och lagra den känsliga informationen.
Risker med att använda AI måste naturligtvis vägas mot alla de fördelar som AI ger, såsom ökad produktivitet, mm. Utbildning av personalen för att öka riskmedvetenheten gällande AI samt tydligare riktlinjer för användning av AI två sätt att öka er motståndskraft.