🛠️ Just nu pågår en större helrenovering här. Om du hittar något som inte fungerar som det ska får du gärna höra av dig!

Skip to main content
profile pic
Anders Thoresson

Första bedrägeriet med fejkröst genomfört

| | | Lästid: 2 minuter (1916 tecken)

Deepfake med Nicolas Cage.

Vem kommer vinna källkritikskapplöpningen. De som utvecklar verktyg för att skapa fejkinnehåll eller de som utvecklar verktyg som ska avslöja det som är manipulerat?

I Digitalsamtal #85, sommaren 2017, pratade Carl och jag om källkritikens nya utmaningar. Det var innan de första deepfake-filmerna hade publicerats, men forskare hade visat upp mjukvara som gjorde det möjligt att manipulera en persons ansiktsuttryck i en direktsändning. Och företag hade demonstrerat teknik som gör det möjligt för datorer att, åtminstone på sikt, prata med en valfri persons röst på ett sådant verklighetstroget sätt att det kommer bli svårt att genomskåda att det är fejk.

Nu har media rapporterat om vad som påstås vara det första storbedrägeriet genomfört med fejkade röster. En anställd på ett brittiskt energibolag blev uppringd av vad han trodde var sin chef och blev ombedd att göra en större transaktion till ett konto i Ungern.

När jag föreläser för lärare brukar jag visa deepfake-klippen med Barack Obama eller Nicolas Cage och sen be dem fundera på vilka konsekvenser de här tekniska möjligheterna kan ge. Manipulerade uttalande av politiker är bland det första som brukar dyka upp. Antingen på internationell toppnivå (där de kanske avslöjas snabbt eftersom det är personer som är ständigt bevakade) eller på lokalnivå (mer utmanande eftersom mediabevakning och andra kontrollfunktioner runt omkring inte är lika utbyggda).

Men ge tekniken lite tid att mogna. Då kommer bedrägerierna som det mot det brittiska företaget att bli vanligare.

Och ge den lite tid till. I förra veckan läste jag om kinesiska appen Zao som gör det enkelt att skapa deepfake-filmer av ett par utvalda storfilmsscener. Nästa steg är givetvis att utgå från valfri filmsekvens. Hur ska man som lärare då avgöra om filmklippet som eleverna visar efter rasten, där någon av klasskamraterna gör något olagligt, är fejk eller inte? Wired skrev om Zao under rubriken Forget politics. For now, deepfakes are for bullies.

De tekniska utmaningarna på källkritiken kommer inte att bli mindre. Frågan är om de tekniska verktygen för att underlätta kommer att hålla jämna steg. Den utvecklingen pågår givetvis också, och handlar bland annat om att göra en teknisk analys av filmer, men också av själva innehållet.