Den ökande användningen av deepfake
Begreppet deepfake kommer från orden ”deep” i meningen ”djup maskininärning” och ”fake” i meningen ”falsk”. Djup maskininärning är avancerad AI-teknik där flera lager av maskininlärda algoritmer används för att effektivt kunna extrahera råindataegenskaper på hög nivå. Med den här tekniken är det möjligt att läsa in ostrukturerade data som ett ansikte. AI-tekniken kan till exempel användas för att urskilja hur du rör dig
och sedan återskapa denna information i en deepfake-video via ett nätverksbaserat system för maskininlärning (GAN, Generative Adversarial Network). Det finns en annan typ av specialiserat maskininlärningssystem. Två neurala nätverk används som tävlar mot varandra för att bemästra inlärningsuppgifterna (som porträttbilder) för att sedan generera nya data med samma egenskaper (nya ”bilder”).
I och med att nätverket kontinuerligt testar bilderna gentemot inlärningsuppgifterna blir den nya bilden mer och mer trovärdig. Deepfake har därför blivit ett ännu större hot. Det går att skapa mer än förfalskade bilder och videor med hjälp av nätverksbaserade system för maskininlärning. Maskininlärningen som används för deepfake kan även återskapa röster.
Exempel på deepfake
Det finns många exempel på offentliga personer som utsatts för deepfake. Ett exempel är videon där skådespelaren Jordan Peele imiterar Barack Obamas röst i en riktig inspelning där han varnar om användningen av deepfake. Peele visade sedan hur de två olika personerna såg ut sida vid sida. Vad vill han säga med detta? Att vi måste ifrågasätta allt vi ser.
Det finns en video där Mark Zuckerberg, vd för Facebook, talar om hur Facebook styr framtiden genom att stjäla uppgifter från till exempel Instagram. Originalvideon är tagen från ett tal som Zuckerberg höll när Ryssland misstänktes för att ha manipulerat det amerikanska presidentvalet. 21 sekunder av talet användes för att återskapa rösten i den förfalskade videon. Denna röstimitation var dock inte lika övertygande som Jordan Peeles Obama-klipp och var lättare att avslöja.
Det går däremot inte att frångå att även mindre välgjorda falska videor kan göra stor påverkan. En video med en alkoholpåverkad Nancy Pelosi spreds som en löpeld på Youtube. Skaparen hade dock bara sänkt hastigheten på klippet, vilket gjorde att Pelosi sluddrade fram sina ord. Ett flertal kända kvinnor har utsatts för att deras ansikten används i porrvideor.
Deepfake-hot – bedrägeri och utpressning
Deepfake-videor har använts både i politiska syften och för personliga vendettor. Deepfake används framförallt i bedrägeri- och utpressningssyften.
Vd:n för ett engelskt energibolag lurades på 243 000 amerikanska dollar på grund av en förfalskad begäran från moderbolaget med hjälp av deepfake-röståterskapning. Förfalskningen var så övertygande att han inte ens reagerade på att pengarna skulle sättas in på ett konto som tillhörde en tredje part, inte huvudkontoret. Han reagerade först när den riktiga chefen begärde en ny överföring. Den här gången ringde varningsklockorna, men det var för sent att få tillbaka pengarna han redan överfört.
Den franska utrikesministern Jean-Yves le Drian utsattes för svindleri på miljontals euro, dock inte med deepfake utan med hjälp av röstimitation och ett noggrant återskapat kontor. Bedragaren Gilbert Chikli klädde ut sig som utrikesministern och bad ett flertal förmögna individer och bolagschefer om donationer för att befria fransk gisslan i Syrien. Chikli är för närvarande åtalad.
alt=”Hot och risker med deepfake”
Deepfake-videor kan användas för utpressning av bolagschefer där man hotar med att publicera dessa om man inte får betalt. Det finns även risk för att obehöriga utnyttjar tekniken för att skapa falska videosamtal där personalen uppmuntras att avslöja lösenord och behörigheter som ger hackaren åtkomst till databaser med känslig information.
Förfalskade porrvideor har skapats med hjälp av deepfake-tekniken för att utpressa kvinnliga reportrar och journalister. Ett exempel på detta är den indiska journalisten Rana Ayyub. Tekniken blir alltmer billig och lättillgänglig så vi lär se mer och mer deepfake-videor i bedrägeri- och utpressningssyfte framöver.
Hur skyddar man sig från deepfake?
Man har börjat skapa lagar för att hantera det växande deepfake-hotet. I Kalifornien har två lagar satts i bruk under det senaste året: AB-602 som förbjuder användningen av återskapande av mänskliga kännetecken för att skapa porrvideor utan godkännande av den person som framställs i videon, och AB-730 där manipulering av bilder av politiska kandidater förbjuds 60 dagar före ett val.
Men räcker detta? Cybersäkerhetsföretagen arbetar hårt med att utveckla algoritmer som kan avslöja förfalskade data. Analyser utförs för att upptäcka de små förvanskningarna som tyder på förfalskning. Med dagens deepfake-teknik återskapas 2D-modeller med hjälp av 3D-perspektiv. Du kan till exempel se om videon är falsk beroende på vilken riktning som personens näsa pekar åt.
Du kan än så länge märka om det är en deepfake-video eller inte. Håll utkik efter dessa tecken som tyder på att deepfake har använts:
- hackiga rörelser
- förändringar i ljus från en bildruta till en annan
- förändringar i hudton
- onaturligt blinkande eller inget blinkande alls
- läpprörelserna stämmer inte överens med vad som sägs
- digitala felaktigheter i bilden.
I och med att deepfake-tekniken blir bättre och bättre kan det dock vara svårt att uppmärksamma dessa detaljer med blotta ögat och du kommer att behöva hjälp av ett cybersäkerhetsprogram.
Banbrytande teknik för att identifiera falska videor och bilder
Teknikutvecklingen strävar mot att göra det möjligt att autentisera sina videor. Genom att använda kryptografiska algoritmer kan du lägga till hashar med jämna mellanrum i klippet. Om klippet ändras kommer även dessa att ändras. Med hjälp av AI-teknik och blockkedjor går det att tillämpa digitala fingeravtryck i videon som inte går att manipulera. Dessa påminner om vattenstämplar i dokument. Det knepiga är att se till att hasharna inte försvinner om videon komprimeras till andra koder.
Du kan även använda program som lägger till digitala ”felaktigheter” i videon för att dölja de pixelmönster som finns i programvaror för ansiktsigenkänning. Felaktigheterna minskar hastigheten på deepfake-algoritmerna, vilket leder till dålig bildkvalitet och gör det lättare att upptäcka förfalskade videor.
Vikten av bra säkerhetsrutiner
Det finns flera sätt att skydda sig mot deepfake utöver de tekniska. Bra säkerhetsrutiner är en viktig aspekt för att undvika att utsättas för deepfake.
Du kan till exempel tillämpa automatiska kontroller vid överföring av pengar som skyddar dig mot deepfake och liknande bedrägeri. Du kan även skydda dig genom att
- göra personalen och familjen medveten om vad deepfake är och vilka risker som finns
- lära dig mer om hur man kan upptäcka deepfake
- hålla dig uppdaterad och använda nyhetskällor av hög kvalitet
- tillämpa grundläggande säkerhetsmetoder – ”verifiera även program som du litar på”. Det är bra att vara skeptisk mot röstsamtal och videor för att försöka undvika att utsättas för bedrägeri. Men detta räcker inte alltid.
Grundläggande cybersäkerhetsystem är a och o för att minimera riskerna för att hackare får åtkomst till dina hem- eller arbetsnätvek med hjälp av deepfake-teknik. De grundläggande säkerhetsmetoderna inkluderar:
- Säkerhetskopiera regelbundet för att skydda dina data mot utpressningsvirus och för att kunna återställa data.
- Använda olika starka lösenord för dina konton för att undvika att alla dina nätverk och tjänster påverkas vid eventuella angrepp. Om ditt Facebook-konto hackas är det skönt att veta att inga fler konton riskerar samma sak.
- Skydda hemnätverk, bärbara datorer och smarta telefoner mot cyberhot med bra säkerhetspaket som Total Security från Kaspersky. Paketet inkluderar antivirusprogram, VPN-nätverk som förhindrar hackning och skydd för webbkameror.
Hur ser framtiden ut för deepfake-tekniken?
Deepfake-tekniken utvecklas hela tiden. För två år sedan kunde man enkelt avslöja om en video var riktig eller inte eftersom kvaliteten var betydligt sämre och att personen i videon sällan blinkade. Men den senaste tekniken är mer utvecklad och anpassningsbar.
Det finns uppskattningsvis över 15 000 tillgängliga deepfake-videor på nätet. Vissa är för underhållnings skull medan andra är mer skadliga för din person. Idag tar det inte mer än 1–2 dagar att skapa en deepfake-video så siffran kommer troligtvis bara att öka.
Relaterade länkar
Stora kändisattacker och hur de kan påverka dig
Hackning av webbkamera: Kan webbkameran användas för att spionera på dig?
Vad innebär utvecklingen av deepfake-tekniken för cybersäkerheten?