Søk
Meny

Bruker deepfake for å lage falske stemmer – slik beskytter du deg

Men en falsk stemme kan en svindler bruke deepfake til å lure sine ofre

Nå kan svindlerne høres ut som sjefen eller et medlem av familien din, i forsøk på å lure deg trill rundt.

Se for deg at det ringer fra et ukjent nummer på mobilen.

I andre enden hører du stemmen til søsteren din – som er svært opprømt.

Hun forteller at hun har vært i en ulykke, og at hun trenger penger. Fort!

Hva gjør du?

Lydbølge - kanskje av en falsk stemme?

Hva er rett svar?

Kan det tenkes at det faktisk ikke er søsteren din i andre enden av samtalen?

Ifølge Thorbjørn Busch, senior sikkerhetsrådgiver i Telenor, er svaret i stadig større grad ja.

– Det er ikke så veldig mange som vet at også stemmer kan bli deepfaket. Heldigvis har vi ikke sett så mye av det i Norge … ennå. For det er liten tvil om at det er på vei, sier Busch.

Med denne teknologien kan kriminelle enkelt bytte ut en stemme med en annen. Det du tror er sjefen eller kjæresten din i andre enden av samtalen, kan være en profesjonell svindler som ringer fra et callcenter.

Og hva med søsteren din som ringer fra et fremmed nummer og ber om penger?

Om du stusser, kan det være en god idé å sjekke om det faktisk er henne du snakker med – for eksempel ved å ringe opp på nummeret hennes og dobbeltsjekke – før du eventuelt overfører noen penger.

Hva er deepfake?

Du har kanskje sett videoer der ansiktet til en person digitalt blir byttet ut med et annet? Dette er såkalt deepfake, en teknologi som kan misbrukes i alt fra svindel til propaganda.

Slik deepfake-teknologi kan brukes også på stemmer. Slik er det blitt enklere enn noensinne å få en stemme til å høres ut som en helt annen.

Ikke overraskende har kriminelle allerede begynt å misbruke deepfake-stemmer for å lure sine ofre, både via telefonsamtaler og over nettet.

Bruker kunstig intelligens

Den brå økningen i bruken av deepfake-svindel henger tett sammen med den eksplosive veksten innenfor kunstig intelligens (KI).

I takt med at KI-verktøy blir mer og lettere tilgjengelig for alle å bruke, har også kriminelle fått bedre tilgang på kraftfulle verktøy de kan bruke for å lure oss.

Dermed trengs ikke lenger inngående teknisk kompetanse for å få en stemme til å høres ut som en helt annen: Det finnes nå en rekke programmer og apper som kan gjøre dette på en svært overbevisende måte.

Og det kan skje i sanntid. Dette betyr at du kan føre en telefonsamtale med en som høres ut som søsteren din – men i virkeligheten er noen helt andre.

Lydbølge - med en falsk stemme?

Mest utbredt i USA – til nå

Ifølge New York Times er det allerede flere eksempler på at kriminelle har brukt deepfakede stemmer i svindel.

Dette er hovedsakelig blitt rettet mot banker og finansinstitusjoner, der svindlerne ringer inn og ber om å få gjennomført transaksjoner – kamuflert bak det som tilsynelatende er kontoeierens stemme.

Parallelt med at deepfake-teknologien utvikles, kommer også stadig nye mekanismer som gjør det mulig å oppdage og avverge deepfake-svindel. Og det er nettopp store selskaper som banker som nå tar i bruk slike forsvarsverktøy.

– En mulig effekt av dette, er at de kriminelle i stedet retter seg mot vanlige folk, som ikke har tilgang på slikt, sier Thorbjørn Busch i Telenor.

Og det er nettopp slike angrep mot privatpersoner som nå øker i omfang i USA, ifølge blant andre Washington Post.

«Supervåpen» som kommer hit

Grunnen til at omfanget av slik svindel foreløpig er større i USA enn i Norge, er at teknologien frem til nå har tatt utgangspunkt i det engelske språk – flere snakker tross alt engelsk enn norsk i verden.

Mange av de eksisterende deepfake-appene og -tjenestene er også basert på populære språk. Blant annet har Facebook-eier Meta laget et KI-basert stemmeverktøy som bare trenger noen få sekunder fra en kildestemme for å kunne gjenskape denne – på engelsk, fransk, tysk, spansk, polsk eller portugisisk.

Dette verktøyet er så kraftig – og lett å misbruke – at Meta foreløpig har valgt å ikke slippe det løs i offentligheten.

Men også norske privatpersoner blir nå lurt av deepfake-baserte svindler, noe som gjør at Økokrim nå går ut og advarer mot teknologien

– Teknologien er fortsatt helt i startgropen. Men det er ikke lenge til teknologien blir så moden, lett tilgjengelig og brukervennlig at de kriminelle vil bruke den mer aktivt også her i Norge, tror Thorbjørn Busch.

– Dette vil gi de kriminelle et type super-manipulerings-våpen, ved at de kan fremstå som hvem som helst. 

Ifølge sikkerhetseksperten er den viktigste faktoren innenfor alle svindelmetoder troverdighet.

– Når slik teknologi enkelt kan brukes til å etterligne både utseendet og stemmen til et offer, begynner det virkelig å bli skummelt, sier Busch.

Rammer private og bedrifter

Som et eksempel på hvordan teknologien kan misbrukes, trekker Busch frem hvordan de kriminelle kan få deg til å tro at du snakker med noen du allerede har tillit til – som en venn eller en kollega.

– Slik kan de lure deg til å gjøre ting du ikke burde, som å gi fra deg BankID til det du tror er kjæresten. Eller de kan endre kontonummer på en stor faktura etter en falsk videosamtale med det du trodde var sjefen, sier Busch. 

Lydbølge - med en falsk stemme?

Vær obs – og skeptisk

Som alltid må du ta noen forholdsregler for å unngå å bli lurt:

– For det første er det viktig å kjenne til at teknologien finnes og hvordan den fungerer, og at den vil bli misbrukt på lik linje med falske SMS-er, e-poster og så videre, sier Busch.

Selv om teknologien er ny, minner han om at målene til de kriminelle stort sett er det «samme gamle». Samtidig fungerer de gamle svindelmetodene dessverre så godt at de fortsatt gir stor gevinst med liten innsats. 

– De kriminelle ute etter informasjon eller penger. Som alltid handler det derfor om å være obs på hva du sier, og til hvem … spesielt i en tid der du ikke lenger kan stole på dine egne øyne eller ører, sier Busch.

– Blir du bedt om noe unormalt, kan det for eksempel lønne seg å dobbeltsjekke via en annen kommunikasjonskanal.

I denne CNN-reportasjen kan du se (og høre) hvordan reporteren lurte sin egen mor og far med en KI-generert stemme – og høre andre skremmende gode eksempler på deepfakede stemmer: