5 tips på hur du undviker en deepfake-skandal.
Med hjälp av ljud- och videomaterial skapat med artificiell intelligens, AI, kan deepfakes användas för manipulation och bedrägeri.
Molntjänstbolaget Citrix ger här 5 tips på hur företag kan förhindra det nya hotet med deepfakes.
När världen först blev bekant med deepfakes 2017 var det främst ett verktyg för att håna kändisar, störa den politiska debatten eller skapa fejknyheter. Risken har nu förflyttats till att lura företag på stora pengar.
Ett exempel på detta kommer från 2019, när ett sydafrikanskt energibolag fick ett samtal från vd:n på det tyska moderbolaget som sa att motsvarande drygt 2 miljoner kronor skulle föras över till en ungersk leverantör omedelbart. Under samtalet lät rösten övertygande: det lät som hans sätt att prata och han gav goda anledningar till den brådskande överföringen. Pengarna fördes över, men senare upptäcktes det att en bedragare hade gjort deepfake-ljud med AI för att härma vd:ns röst. Två år senare har tekniken blivit ännu mer avancerad och är numera något som cyberkriminella kan använda för att utföra attacker mot företag.
Hur kan ditt företag försvara sig mot deepfakes från cyberkriminella? Här är några värdefulla tips:
- Ha koll på din fiende
Se till att din säkerhetspersonal har detta hot på sin radar och att den följer deepfake-relaterad information noga för att vara förberedd för eventuella attacker.
- Ha en plan
Etablera beredskaps- och krishanteringsplaner för den här typen av attacker. Kom ihåg att deepfakes använder IT i form av AI, men att det är en affärsrelaterad attack. Därför behöver försvarsplanerna inkludera flera avdelningar såsom ledningen, IT-personalen, ekonomiavdelningen och PR-teamet.
- Sprid ordet
Inkludera deepfakes i er säkerhetsinformation för att er personal ska vara medveten om hotet. Utbilda anställda i att ta ett steg tillbaka när de tvekar om information de får, även när den är trovärdig i ljud- eller videoform. Starta med utbildning för de personer som är mest utsatta och gå vidare därifrån.
- Skapa kanaler
Inrätta arbetsflöden som gör att anställda kan verifiera information som kommer via ett eventuellt deepfake-meddelande. Precis som att tvåfaktorsautentisering har blivit en standard för säkerhet så bör en dubbelkoll av viktig information bli en standard när vi kommer in i en tidsålder med AI-genererad vilseledning.
- Omvärdera företagskulturen
En av förutsättningarna för en lyckad deepfake-attack är att anställda ofta inte vågar ifrågasätta direktiv från en överordnad. Anställda kan oroa sig för att chefen blir arg om de frågar efter någon form av bekräftelse. Ett effektivt försvar är att omvärdera företagskulturen och att försöka platta ut hierarkierna så att det inte är ”en stor sak” att använda sunt förnuft och ringa sin överordnade och fråga ”ringde du verkligen mig nyss och bad mig överföra en större mängd pengar till ett offshore-konto?”.