I dagens moderne verden lærer man nesten daglig om nye teknologiske utviklinger som kan forenkle hverdagen vår eller bidra til innovasjon.
Men noen av teknologiene har også potensial til å bli brukt imot oss. For eksempel har vi Deepfake, et relativt nytt fenomen for de fleste av oss.
– «Deepfake» brukes som et samlebegrep på bilder, video og lyd fremstilt ved hjelp av maskinlæring, altså kunstig intelligens. Det brukes typisk til å bytte ut ansikter eller å lage syntetiske stemmer som til forveksling ligner personen de etterligner, sier sikkerhetsekspert Thorbjørn Busch i Telenor til Nettavisen."
På TikTok har en bruker lagd en rekke sjokkerende, men realistiske, Deepfakes av Tom Cruise. I videoene kan man se det som ser ut til å være Mission Impossible-stjernen imitere en skilpadde, synge sanger på golfbanen eller spise frokostblanding med Paris Hilton.
Men det er faktisk ikke han.
Den ekte personen bak brukeren heter Chris Umé. Videoene er mulig å lage ved å bruke stand-in skuespilleren Miles Fisher som ligner på Cruise.
Ser du at dette ikke er Tom Cruise?
For å lage en troverdig deepfake, er kildematerialet viktig, påpeker Busch til Nettavisen.
– Jo mer høyoppløselig bilde, video eller lydmateriale man har av personen som skal forfalskes, jo bedre utgangspunkt er det for å bygge den digitale modellen. Når den kunstige intelligensen er trent opp med kildematerialet, kan den gis instruksjoner og spytte ut et mer eller mindre troverdig resultat, avhengig av teknologiens kvalitet.
Det krever både tid, kompetanse og ressurser for å lage slike Deepfakes.
Umé skal ha brukt over to måneder ifølge CNN på å trene en kunstig intelligens-model på å prosessere videoer og bilder av Cruise. Målet var å få Hollywood-stjernen fra forskjellige vinklinger og i forskjellig lys.
I tillegg filmer Fischer og Chris Ume base-videoer for Deepfaken.
Etter det tar det rundt 2-3 dager for å generere en Deepfake som kombinerer opptakene av Fisher med Tom Cruises ansikt. Avslutningsvis bruker Umé kunstig intelligens for å forbedre kvaliteten.
– Du kan ikke bare gjøre dette ved å trykke på en knapp, har han sagt tidligere.
Busch mener «DeepTomCruise»-brukeren på TikTok er imponerende, men at tekniske feil skinner gjennom.
– Man ser på mange av videoene at de er manipulert, men noen er også utrolig gode. Videoene er gode fordi det finnes mye god data, og man kan således bygge gode modeller.
Les også: Handelsbanken tok 139.000 kroner ut av kontoen til Mattias: - Jeg trodde jeg var under etterforskning
– Kan bli fremtidens kriminelle idé
Kan enklere, men fortsatt troverdige, versjoner av teknologien brukes mot private personer? Ja, sier Busch og Tron Ingebrigtsen, sikkerhetssjef i Frende Forsikring.
Busch mener vi trolig kan se mer til av svindelen i fremtiden.
– Der Microsoft-svindel er en klassisk telefonsvindel i dag, kan deepfake kjapt være framtidas kriminelle gründeridé. Her vil ikke den som plukker opp telefonen møte på en engelsk stemme med indisk aksent – men kanskje en person som tilsynelatende er norsk – og kanskje godt kjent?
Alt handler om hvor dyktig svindleren er til å bygge en profil på deg basert på flere detaljer.
– Som et tenkt eksempel kan man se for seg et callsenter styrt av kun datamaskiner. Disse driver med automatiserte oppringninger til norske nummer og prøver å få sine ofre i tale med et tilforlatelig formål, for eksempel en spørreundersøkelse. Spørsmålene skal helst gi lange svar som gjør det lett å bygge en digital stemmemodell av offeret, legger Busch til.
Etter dette går offeret etter å hente opplysninger om deg fra ulike kilder.
– Neste skritt er å kombinere ulike datalekkasjer fra sosiale medier, som telefonnumre og vennelister, for å kartlegge nettverk og peke ut alle som skal motta samtaler fra offeret. Ved å forfalske telefonnummeret til offeret (via såkalt spoofing) ringes deretter hele vennelista opp. Har mottakerne nummeret lagret, lyser navnet opp på skjermen. I den andre enden er en stemme de kjenner fra før, som leser opp et manus, understreker Busch.
Når offeret svarer, vil maskinen forsøke å reagere i sanntid gjennom stemmegjenkjenning og kunne generere nye svar på sparket, påpeker Busch.
– Fantasien er det eneste som setter begrensninger
Ingebrigtsen i Frende Forsikring forteller at Deepfake ikke er noe nytt, men likevel er mer avansert enn noensinne.
– Teknologien har eksistert ganske lenge, men i dag er tilgangen på kraftige maskiner større og det bidrar til at kvaliteten øker og det blir vanskeligere å skille falske videoer fra originalene, sier han.
I dag kan en slik falsk video gjøres veldig bra.
– Det har et enormt skadepotensial. Fantasien er det eneste som setter begrensninger. Det er ingen grenser for hvordan dette kan misbrukes, sier Ingebrigtsen.
Svindlerne misbruker teknologien for å sverte eller presse andre.
– Det er superenkelt å gjøre. Alt man trenger er å finne en programvare på nettet. Generelt finnes det utallige løsninger og ubegrenset med datakraft til å lage veldig gode etterligninger, sier han.
Den er kunstig intelligens eller maskinlæring som gjør metoden mulig.
– Det gjør at man kan smelte sammen videosnuttene eller lydopptakene og få det til å fremstå som ekte, forklarer han.
Alle kan bli et offer for dette, ifølge Ingebrigtsen.
– Likevel kan man også tenke seg at svindlerne går etter kjendiser eller politikere som er helt avhengig av et godt omdømme, sier han.
Som privatperson bør man være varsom.
– Det skal veldig lite til for at det får enorme konsekvenser, og opprydningsarbeidet kan fremstå som umulig, fortsetter han.
Kan dette ramme privatpersoner?
– Vi kan ikke utelukke det, men som forsikringsselskap har vi heldigvis ikke sett så mange eksempler på det. Men det kan skje, helt klart, sier Ingebrigtsen.
Hva kan vi forbrukere gjøre for å beskytte oss selv?
– Man kan slutte å legge ut videoer. Det er det sikreste tiltaket. Uten videoer, lydsnutter eller bilder kan man ikke generere Deepfakes. Tenk deg om før du legger ut noe, sier han.
– Fra myndighetenes side bør det stilles strengere krav til dem som genererer, lagrer, distribuerer og misbruker syntetisk generert materiale. I tillegg bør det innføres krav om tydelig merking av syntetisk generert materiale, avslutter Ingebrigtsen.
Les også: Krever handling etter alarmerende strømrapport: - Dette er en varslet krise
– Vil bli en del av våpenarsenalet
Heldigvis er det en grunn til at man ikke hører eksempler på denne typen svindelforsøk i dag.
– Tiden er ikke moden for det. Det er mange enklere og mindre ressurskrevende svindelmetoder som fortsatt fungerer veldig godt. Men vi vet at deepfake vil bli en del av våpenarsenalet til disse aktørene når nok dører er blitt lukket for dem, sier Ingebrigtsen.
Busch understreker at man ikke trenger å være en naiv person for å gå på en svindel av et slikt kaliber.
– Det kan like gjerne være biologien som jobber mot deg. De fleste av oss får dårligere hørsel med årene, og det kan gjøre det vanskeligere for eldre å avsløre at noe er merkelig med stemmen som ringer, sier han.
Telenor jobber med løsninger for å hindre kundene deres fra å bli et offer for en slik svindelmetode i fremtiden.
– Dette er en utvikling Telenor følger nøye med på, og vi håper å kunne tilby kundene våre sikkerhetsløsninger om det blir et reelt problem i framtiden, sier Busch.
Les også: ID-tyveri kan ramme 3,3 millioner nordmenn: - Da hindrer du at noen låner penger i ditt navn