Tre sekunder ljud räcker för att AI-klona din röst!

I en cybersäkerhetsartikel konstateras att det räcker med en tre sekunder lång ljudupptagning för att cyberkriminella ska kunna klona en persons röst. En så kort ljudsnutt skulle kunna hämtas från ett videoklipp som delas på sociala medier eller kopieras från ditt svarsmeddelande på din voicemail.

Röstkapning genom AI-kloning: kan du lita på dina öron?

Många tror sig säkert kunna känna igen en AI-klonad röst. Tyvärr verkar det som att man inte ska känna sig alltför säker på den saken.
Ett exempel som nämns är en amerikansk mamma som nästan blev offer för ett virtuellt kidnappningsbedrägeri, där en klonad röst på ett övertygande sätt härmade hennes dotters rop på hjälp. Ett hänsynslöshet exempel på AI-bedrägeri, där en form av social manipulation tar sig den fulaste formen.

Växande hot mot företag

Bedrägerier med röstkapning genom AI har hittills mest inriktat sig mot privatpersoner, speciellt mot de äldre, där bedrägerier görs genom att man imiterat familjemedlemmar. Trenden är dock att AI-klonade röstbedrägerier är ett växande hot även mot företag.

En anställd på ekonomiavdelningen kan falla offer för ett samtal som denne tror kommer från VD:n, särskilt eftersom dessa typer av bedrägerier typiskt görs genom att skapa en känsla av auktoritet och brådska så att behovet av att agera snabbt blir viktigt.

Ett aktuellt exempel, från tidigare i år, hände i Italien där en framstående affärsman blev lurad i en deepfake där man AI-klonat försvarsministerns röst som bad om pengar för snabb hjälp att befria kidnappade journalister. Affärsmannen förde över 1 miljon euro men då bedrägeriet upptäcktes i tid kunde polisen spärra kontot och pengarna återtas.

Även om dessa typer av exempel finns så kan man tycka att det känns orimligt att så väldigt många ska kunna bli lurade och i stor skala. Studier från USA förutspår dock att detta och andra bedrägerier med generativ AI, kan innebära att företag i USA förlorar upp mot 40 miljarder dollar fram till 2027.

Biometrisk röstautentisering räcker inte

Aktörer inom den finansiella sektorn har använt röstbiometri ett tag för att identifiera kunder som tex kontaktar deras kundtjänst. Nu finns indikationer på att även denna metod blir omsprungen av AI-klonade röster. För att ligga i framkant behöver man sannolikt kombinera röstautentisering med en integrerad multifaktorsautentisering.

Framtidens och nutidens skydd mot AI-klonad röstkapning

Teknik
Det behövs mer avancerad röstautentiseringsteknik som kontrollerar fler aspekter av en persons röst, som ton och rytm. Att bara utgå från röstkaraktär räcker snart inte längre.

Om man dessutom kombinerar röstigenkänning med beteendeanalys, som tittar på talmönster som pauser, tonskiften och stress, ökar svårighetsgraden för AI-kloning. Vi har alla subtila variationer som är ytterst svåra för AI att efterlikna.

Beteende
I en tid av sociala medier kan det kanske kännas svårt för många att begränsa mängden personlig information som delas online, speciellt ljud- och videoklipp. Men då brottslingar kan använda dessa källor för att klona både röst och bild för att utföra bedrägerier och deepfake så vore det nog klokt att försöka vara mer restriktiva.

Dock är ett av de kraftfullaste verktygen för att bygga motståndskraft klart inom räckhåll. Att utbilda er personal på ett bra sätt ökar medvetenheten gällande både förekomsten av bedrägerier och social manipulation och att vara uppmärksam på just AI-driven deepfake och röstkloning. Att personalen är medveten om, och förstår hur bedragare kan använda AI för att replikera röster i syfte att luras och manipulera, gör att man lättare får dem att ifrågasätta alla ovanliga förfrågningar, särskilt de som rör pengar eller känslig information.

 

Hör av dig så hjälper vi er att skapa både en större motståndskraft och en ökad cybertrygghet!

Falsk AI-plattform skickar virus istället för video

Nu sprids nyheter om ett nytt cyberhot kopplat till AI, nämligen fake-AI, där användare presenteras med ett verktyg som för generativ AI som kan skapa en video av en bild. Men istället för en videofil så laddar användaren ner skadlig programvara.

Välkänd risk för dataläckage genom felaktigt använd AI

När vi tydligt ser hur AI blir en naturlig del både av arbetslivet och privatlivet, finns ett växande oro för felanvändning, vilket kan resultera till oavsiktlig spridning av känslig information.
I en cybersäkerhetsrapport ses felaktigt använd AI som en av 2025-års stora risker. Det tydligaste riskområdet är dataläckage och händer när företagets personal delar konfidentiell information, med AI-verktyg för att skapa rapporter och göra analyser, utan att vara medveten om att någon obehörig kan få tillgång till och lagra den känsliga informationen.

Ny risk med fake-AI: ett finurligt lurendrejeri som ny attackmetod

Då vi ser att användning av AI-verktyg blir vardagsmat för många så använder sig millioner människor dagligen av AI för att skapa innehåll. Detta ger nu cyberkriminella en möjlighet att lansera en ny, och extremt finurlig, attackmetod, fake-AI.


Ett aktuellt exempel som marknadsförs genom annonser på vanliga sociala medier, tex Meta, erbjuder en fantastiskt spännande och tillsynes legitim AI-tjänst för att generera video från bild. Man uppmanas att ladda upp tex en bild, under intrycket att de använder riktig AI, för att generera ett filmklipp där bilden används.

Exempel på annons

 

Laddar ner skadligt program istället för film

När filmen ”skapats av AI-verktyget” instrueras användarna att ladda ner sin genererade film. Tyvärr laddar offren då omedvetet ned en skadlig programvara som ser ut som en mediafil. I en ZIP-fil (arkiv) finns en fil i ett förväntat filformat, tex .mp4 men som i själva verket är en infostealer eller annan skadlig programvara som då installeras av användaren när denne tror sig öppna sitt AI-genererade filmklipp.
Med den skadliga programvaran installerad kan hackaren stjäla känslig information eller fjärrstyra datorn för att åstadkomma annan skada i IT-systemet.

Kommer säker fler varianter

I den här specifika kampanjen känns det skadliga AI-verktyget igen under namn typ VideoDreamMachine, men nya falska verktyg kommer sannolikt att dyka upp, utöver andra liknande kampanjer/tjänster som redan kan vara lanserade...

Policys och utbildning för en ansvarsfull användning av AI

Med ökade risker kopplat till användning av AI så behöver alla företag vara tydliga i sina riktlinjer gällande användning av AI. Med tydliga policys och återkommande utbildning av personalen kan man minska sina risker genom att skapa den nödvändiga kulturen för en ansvarsfull användning av AI genom hela företaget.

Företagsledningen måste leda arbetet och dessutom föregå med gott exempel!

Attacker med deepfake ökar explosionsartat

Från att ha varit en obetydlig del och mest en oro för framtiden är nu deepfake-attacker ett snabbt växande hot. Måltavlan har främst varit den finansiella marknaden, där det rapporteras om en explosionsartad ökning, vilket gör att det finns all anledning att misstänka att deepfakes snart kommer att användas i stor utsträckning även mot andra branscher.

Deepfake

Det har talats om att vi i framtiden riskerar att mötas av AI-genererade bedrägerier där telefonsamtal och t.o.m. videokonferenser skulle kunna lura personer att tro att de talar med sin chef eller kollega. Rösten är den rätta, informationen är korrekt och t.o.m. privata ämnen tas upp under samtalet. Tyvärr beskrivs det i rapporter och artiklar att deepfakes inte är ett framtida hot utan används i stor utsträckning redan idag - och dessutom ökar kraftigt.

 

 

Attackmetod

Man kan beskriva deepfake som ett sätt att imitera en person, ner till väldigt små detaljer, för att manipulera och övertyga en annan person eller kollega att utföra en viss handling. Det kan vara att föra över pengar eller skaffa sig tillgång till hemlig information.
Avancerad och AI-driven teknologi är grunden för att skapa deepfakes och tekniken är nu så kraftfull att cyberkriminella kan lyckas med dessa imitationer och deepfakes även i realtid, dvs videokonferenser.

Finansiellt bedrägeri

Det mest kända stora finansiella deepfake-bedrägeriet är nog det där bedragarna lyckades stjäla motsvarande 250 miljoner kronor från ett bolag i Hong Kong. En medarbetare fick ett mejl från bolagets finanschef i Storbritannien som informerade om att en hemlig penningtransaktion behövde genomföras. Medarbetaren fattade dock misstankar men efter ett videomöte där finanschefen och andra medarbetare deltog kände medarbetaren sig övertygad och genomförde transaktionen. I videomötet såg och lät kollegorna nämligen precis som vanligt.

Informationsstöld

En annan typ av deepfake-bedrägerier som fått uppmärksamhet är när företag anställer på distans, vilket typiskt handlar om konsulter som kan erbjuda kompetens inom ett visst område. Scenariot involverar en stulen Linkedinprofil, ett CV som matchar och en distansintervju som är deepfake, vilket resulterar i en anställning som handlar om att infiltrera och stjäla information.
Ett omtalat fall i denna kategori är ett amerikanskt företag som anställde en person som utgav sig för att vara någon helt annan och med hjälp av deepfake lyckades bli anställd. Personen i fråga var egentligen nordkorean och hade, vid upptäckt, redan installerat skadlig kod i företagets system.

Kravet för ökad motståndskraft: utbildning som både ger tydliga rutiner och en säkerhetskultur

Utbildning av personalen för att öka medvetenheten om social manipulation och om deepfake är ett sätt att öka motståndskraften. Tydliga rutiner, instruktioner och processer är också mycket verkningsfullt men om man inte skapar en säkerhetskultur som får personalen att vilja följa rutinerna så blir de verkningslösa tomma ord.

Hör av dig så hjälper vi er!

ClickFix, när era användare hjälper cyberkriminella

Ett tydligt ökande hot är en nätfiskemetod som generellt beskrivet bygger på att användaren får ett fiktivt problem, tex inte kommer vidare till en hemsida, samt presenteras med ett logiskt klicka här för att lösa problemet.


ClickFix är ett snabbt växande problem och maskeras typiskt genom en falsk dialogruta eller pop-up, ofta i form av krav på att installera en nödvändig uppdatering eller verifiera att du är en människa. Det kan vara en falsk CAPTCHA, I’m not a robot eller rakt på sak en Fix it-knapp som kan kännas bekant och tryggt att klicka på, även för en hyfsat observant användare. För att komma vidare och således lösa ”problemet”, luras användaren att, utan sin vetskap, installera en infostealer eller annan skadlig programvara. Metoden är ytterst effektiv eftersom användaren inte är medveten om vad denne gör, men framför allt för att handlingen i många fall inte upptäcks av säkerhetssystemen.

 

Hotaktörer

Problemet med ClickFix dök upp under sensommaren 2024 och har ökat stadigt sedan dess och tycks accelerera sedan årsskiftet. Spridningen bland aktörerna tycks bred, där både cyberkriminella grupperingar och statligt sponsrade hackergrupper använder metoden för att lura sina offer och infektera med skadlig programvara.

Attackmetoder

Generellt sätt så bygger metoden på social manipulation och att utnyttja mänskligt beteende och svagheter däri. Man försätter den attackerade användaren i en situation av problem och osäkerhet samt presenterar en lösning på problemet i en bekant paketering eller form.
Vanligt är att leda användaren till en falsk hemsida där attacken utförs ifrån. Förutom nätfiskemail är malvertising, onlineannonser med skadlig kod, och sökmotorförgiftning, där hackers manipulerar resultat från sökmotorer så att falska hemsidor med onda uppsåt hamnar överst bland sökresultaten. Typiskt ser dessa falska annonser och hemsidor ut att komma från legitima och välkända organisationer.

Ett ClickFix-exempel
   1. Användaren leds via nätfiske, malvertising eller sökmotorförgiftning till falsk hemsida med ClickFix
   2. Hemsidan kräver att användaren klickar på en popup ”jag är ingen robot” eller liknande
   3. Felmeddelande dyker upp om att det tex inte gick att verifiera användaren samt instruktioner om hur man löser problemet
   4. Användaren följer instruktionen och installerar en infostealer eller annan skadlig programvara
   5. Användaren uppfattar att verifieringen lyckades och surfar vidare helt ovetande om vad som hänt

Vad är en infostealer?

Kortfattat kan man beskriva Infostealers som en skadlig programvara som i hemlighet infekterar datorer och system med ett enda egentligt syfte – att kopiera värdefull information utan att det upptäcks. När informationen är stulen har Infostealern slutfört sitt uppdrag och nästa steg för den cyberkriminelle är att sälja eller utnyttja den stulna informationen.

Den information man fokuserar på att stjäla är olika typer av användarnamn, lösenord, systeminställningar, cookies, loggfiler, mm som kan användas för att logga in eller åtminstone få fotfäste i ett företags IT-system. Därifrån iscensätts sedan andra cyberattacker eller andra bedrägliga aktiviteter. Den typiska köparen av informationen är således andra cyberkriminella som efter köptransaktionen inleder en cyber-, utpressnings- eller bedrägeriattack.

Vill du veta mer om hur cybersäkerhetsutbildning kan stärka er motståndskraft?

Utbildning av personalen för att öka både riskmedvetenheten och kunskapen om nätfiskeutvecklingen är ett ypperligt sätt att öka er motståndskraft, speciellt när det kombineras med toppmoderna cybersäkerhetsverktyg.

 

Den organiserad brottsligheten muterar – cyberhotet ökar snabbt

Oroande rapport från Europol avslöjar att själva DNA’t av organiserad brottslighet håller på att förändras och med det förvärras också hotbilden. Förändringen sker på flera områden som utvecklar taktik, verktyg och struktur på de kriminella nätverken och det område som listats som nr 1 bland de snabbast ökande hoten är cyberattacker.

 

Det är med bekymmersam blick man läser om Europol’s nysläppta rapport EU-SOCTA 2025, som är den mest noggranna analysen av organiserad brottslighet inom EU. Med underrättelseinformation från medlemsländer och internationella brottsbekämpningspartners så analyseras den organiserade brottsligheten inte bara för vad den är idag utan också hur den utvecklas, förvärras och vad det innebär. Förändringen är fundamental och innebär att den är djupare rotad och med destabiliserande än någonsin tidigare.

Ett förändrat DNA: organiserad brottslighet muterar

Kortfattat så säger rapporten att förändring inom organiserad brottslighet sker i så stor utsträckning att hela sammanfattningen får titeln ”The DNA of organised crime is changing – and so is the threat to Europe”. Traditionella begränsningar, som tidigare påverkade brottssyndikaten, är få och de de kriminella tycks dra maximal nytta av en värld av global instabilitet, digitalisering och ny teknik.

Tre kännetecken som definierar dagens organiserade brottslighet
1. Ökande destabiliserande effekt – påverkar även samhällets fundament och institutioner
2. Frodas online – gränslös och superskalbar brottsarena där dessutom möjlighet till anonymitet är stor
3. Accelereras av AI och ny teknik – används som brottslighetskatalysator då det ger möjlighet till ökad automatisering, skalbarhet, effektivitet, komplexitet, mm.

De snabbast ökande hoten

Med ett nytt kriminellt DNA så förändras hotbilden. I rapporten listas sju säkerhetshot där kriminella nätverk blir mer och mer sofistikerade och farliga. De två områden som står överst bland de sju var Cyberattacker och Onlinebedrägerier.

Den vanligaste Cyberattacken är spridning av ransomware, men också attacker på kritisk infrastruktur. Gällande onlinebedrägerier, så omnämns AI-driven social manipulation och stöld av känslig data.

Båda dessa områden är områden inom cyberbrottslighet som ofantligt många redan blivit drabbade av. Lägger vi då till de ytterligare dimensioner som beskrivs i rapporten och att hoten fortsätter att växa så gör man klokt i att se om sitt hus. Innan stormen kommer.

 

Hur redo är du och ditt företag? Har ni tillräcklig motståndskraft?

 

Tydliga fördelar med AI inom cybersäkerhet

Det finns fördelar med AI inom otaliga branscher och cybersäkerhet är inget undantag. Men långt ifrån alla vet hur man kan dra nytta av AI för sin egen verksamhets motståndskraft.

Kraftig ökning av AI inom cybersäkerhet

Som vi tidigare rapporterat om så ökar användningen av AI inom den cyberkriminella världen. Därtill blir användningen mer och mer avancerad, vilket innebär att hotbilden ökar inom flera områden.

Som ett svar på denna ökande hotbild ökar även användningen av AI inom cybersäkerhetsbranschen. I en forskningsrapport estimeras att den globala marknaden för AI-baserade cybersäkerhetstjänster nästan kommer att tiodubblas fram till år 2030 från en marknad på ca 150 miljarder 2021.

En viktig anledningen till att AI har så stort värde för cybersäkerhetsbranschen är förmågan att hantera och analysera så stora mängder av data. Problem som många företag har är nämligen både relaterade till att upptäcka avvikelser och mönster i sin data och sina IT-system men också på ett effektivt sätt sortera bort falsklarm och mänskliga fel i de enorma datamängder, trafikflöden, loggar och rapporter som genereras. 

Fördelar för att möta cyberattacker

Det finns ett antal områden där användningen av AI är extra fördelaktig, speciellt som vi lever i en värld med ett ständigt växande cyberhot, ökande mängder data och en större komplexitet i våra IT-system som ökar attackytan:

  • Kapacitet för att analysera enorma mängder data som är oöverskådligt med traditionella verktyg
  • Identifiera verkliga attacker vilket leder till färre falsklarm och mänskliga fel
  • Minska tid från upptäckt till incidenthantering
  • Snabbt generera rapporter som är komprimerade och lättförståeliga så att säkerhets- & incidenthanteringspersonal snabbt får en bra överblick
  • Ge säkerhetspersonalen möjlighet att fokusera på de verkliga hoten och attackerna
  • Effektivitet och produktivitet för minskade kostnader 

 

 

Förutom ovan nämnda fördelar finns andra områden inom cyberförsvaret som skulle kunna dra stor nytta av AI.

Med AI-driven penetrationstestning kan man utmana och testa sina egna system på en helt ny nivå. Med detta finns således möjlighet att hitta och rätta till säkerhetsbrister, innan de utnyttjas av cyberkriminella.

Simulering av nätfiske och social manipulation kan också förbättras med hjälp av AI, för att utveckla spetsa till träningen av personal och hjälpa säkerhetsteam att identifiera risker.

Att ta hjälp av AI för att hantera cyberattacker med otroligt kraftfulla verktyg är en stor fördel men för de organisationer som dessutom använder AI för att förhindra att attackerna sker, finns ytterligare vinningar att göra.

 

Är du nyfiken på hur AI kan stärka er cybersäkerhet?

Hur AI används av cyberkriminella – det blir värre och värre

Att AI används och är en positiv resurs i många branscher är ingen nyhet. AI är dessutom, för väldigt många, en förhållande ny företeelse eftersom det stora genombrottet kom först när generativ AI gjordes tillgänglig på bred front.
Inom den cyberkriminella världen ser det liknande ut och nu ökar användningen snabbt. Därtill blir användningen mer och mer avancerad, vilket innebär att hotbilden ökar inom flera områden.

Vad är AI-drivna cyberangrepp?

Generellt beskrivet så är AI-drivna cyberangrepp sådana där AI använts antingen i utvecklingen av en cyberattack och/eller som en komponent av själva cyberangreppet eller attackmetoden. AI används oftast för att förbättra och förenkla utvecklingsprocessen samt för att spetsa till existerande attackmetoder eller skadlig programkod.

Exempel på hur AI används för cyberattacker

Utveckling och leverans av skadlig kod, där generativ AI används för att skriva programkoden. Växande avvändning, speciellt av oerfarna och mindre kunniga hackare.
För avancerat nätfiske och social manipulation. Generativ AI används för att skapa traditionellt material som förfalskade dokument, text, bilder och video men även deepfakematerial. AI används också för att kartlägga och analysera kommunikationsmönster och inhämta personlig information som sedan kan användas för avancerat nätfiske och social manipulation.
Intrång samt övervakning av system. Svagheter och säkerhetsbrister finns i nästan alla IT-miljöer och med AI har cyberbrottslingar nya och otroligt kraftfulla verktyg för att knäcka lösenord, övervaka trafik och göra sårbarhetssökningar.
Maskeringsverktyg för att cyberattacker som tex användning av skadlig kod, intrång, datastöld, etc inte ska upptäckas. Många säkerhetssystem bygger på att identifiera en cyberattack genom programkod, mönsterigenkänning, tillvägagångssätt, mm. En mycket bekymmersam möjlighet med AI är att det möjliggör för dynamiska attacker, där en skadlig programvara på egen hand ständigt ändrar sitt beteende, signatur, programkod, mm för att undvika att bli upptäckt. AI skulle tom kunna analysera de säkerhetsverktyg som används och använda denna information som hjälp för att bättre kunna kamouflera attacken.

Fight fire with fire!

Det kan kännas både hotfullt och nästan hopplöst att konstatera hur hotbilden ständigt förändras och ökar. Lyckligtvis ökar även användningen av AI kraftigt inom cybersäkerhetsbranschen och har för ett stort värde i förmågan att hantera både gamla och nya hot.

Vill du veta mer och hur vi kan hjälpa dig så tveka inte på att höra av dig!

 

Cyberkriminella samarbetar mer och mer

En ny rapport visar att cyberkriminella ständigt utökar sitt samarbete, vilket ytterligare komplicerar en hotbild som redan är ytterst svår att överblicka och därtill ökar komplexiteten av cyberhoten ytterligare.

Kriminella organisationer är opportunister och när en möjlighet öppnas är de ofta snabba på att utnyttja den. Således är det föga överraskande att en globaliserad digital värld, med både för- och nackdelar för de allra flesta verksamheter, leder till att även cyberhotbilden globaliseras. Det framkommer även i rapporten, att påtryckningar från brottsbekämpande myndigheter leder till att hotaktörer samarbetar över gränserna.

Mer avancerad cyberbrottslighet kräver mer avancerat cyberförsvar

Hotkomplexiteten ökar som sagt ständigt och både kriminella samarbeten och användning av AI driver på utvecklingen. Dessutom innebär tillgängligheten av cyberbrottstjänster, som är en är enorm och växande marknad, såsom Access-as-a-Service (AaaS) och nätfiskeattack som tjänst, mm att även ligor med låg teknisk kompetens kan utföra avancerade cyberattacker.

Är det ni som drabbas nästa gång?

Hör av dig om du vill ha tips på hur ni kan minska risken för cyberintrång!

Vi kan hjälpa er med allt ifrån att identifiera era sårbarheter, en tydligt prioriterad åtgärdsplan till att övervaka era system dygnet runt och omedelbart hantera de cyberattacker och intrångsförsök ni utsätts för.

Ökad risk för dataläckage genom felaktigt använd AI

När vi tydligt ser hur Artificiell Intelligens blir en naturlig del både av arbetslivet och privatlivet, framförs en växande oro för felanvändning, vilket kan resultera till oavsiktlig spridning av känslig information.

I en nyligen publicerad cybersäkerhetsrapport ses felaktigt använd AI som en av 2025-års stora risker. Det tydligaste riskområdet är när företagets personal delar konfidentiell information, såsom finansiell information, för att skapa rapporter och göra analyser med hjälp av AI, utan att vara medveten om att någon obehörig kan få tillgång till och lagra den känsliga informationen.

Utbildning och tydliga riktlinjer ökar er motståndskraft

Risker med att använda AI måste naturligtvis vägas mot alla de fördelar som AI ger, såsom ökad produktivitet, mm. Utbildning av personalen för att öka riskmedvetenheten gällande AI samt tydligare riktlinjer för användning av AI två sätt att öka er motståndskraft.

Vi erbjuder cybertrygghet!