Deepfake: püss, mis ei ole pauku teinud – Propastop
01.06.2020
Deepfake – eelkõige videomaterjali võltsimise tehnoloogia, mis võimaldab tehisintellekti süvaõppe (deep learning) abiga luua reaalsusele äravahetamiseni sarnast liikuvat pilti – on viimase aastaga muutunud kättesaadavaks igaühele, kuid mõjutusoperatsioonides on seda kasutatud üllatavalt harva.
Mullu kirjutas välismeedia korduvalt üha kasvavast deepfake ohust ning prognoosis selle tehnoloogia kasutamise plahvatuslikku kasvu meedia sisu loomisel ja inimeste mõjutamisel. Kajastasime seda ka Propstopis . Nüüd, pea aasta hiljem, saame tõdeda, et kuigi tehnoloogia on muutunud järjest kättesaadavamaks, on avalikkuseni jõudnud hämmastavalt vähe juhtumeid, kus deepfake’i on kasutatud inimeste pahatahtlikuks tüssamiseks.
Ülehinnatud oht
Giles pakkus ühe võimaliku vastusena, et ehk hoiti seda relva piisavalt mõjusa sündmuse jaoks ja ei tahetud niisama tühja-tähja peale raisata. „Kui nii, siis hoiti seda liiga kaua. Deepfake’il pole enam võimet šokeerida, avalikkus on juba ohust teadlik ja oskab võltsimise võimalusega arvestada.“
Samal webinaril osalenud teadlane Tim Hwang, kes on oma karjääri jooksul muu hulgas vastutanud ka Google’i tehisintellekti ja masinõppe valdkonna eest, leidis, et deepfake ei ole mõjutusoperatsioonides kardetud levikut saavutanud, kuna endiselt on odavam ja lihtsam viia läbi mõjusaid desinformatsiooni kampaaniad ilma deepfake’i kasutamata. „Kui endiselt töötab võte, kus päris fotole pannakse lihtsalt eksitav pildiallkiri, siis milleks ajada asja keeruliseks?“
Deepfake kättesaadav igaühele
Kui valitsustel on olnud ilmselt juba aastakümneid võimekus luua usutavaid videomanipulatsioone, siis viimase mõne aastaga on see tehnoloogia muutunud kättesaadavaks pea igaühele. Vabavaralised Faceswap ja DeepFaceLab on veebist lihtsalt leitavad ning iga huviline võib oma osavust deepfake loomisel katsetada. Selliste lihtsamate deepfake’ide avastamine ei ole aga ekspertidele mingi probleem. Sotsiaalmeedia gigandid juba arendavad deepfake automaatse tuvastamise ja mahavõtmise programme, mistõttu deepfake liigub ilmselt veebi suletumatesse osadesse – privaatsetesse võrkudesse jms.
„Kõige lihtsam on avastada deepfake’e, millest on palju näiteid. Kasutajataseme deepfake’e  on seega väga lihtne avastada, kuna neid on palju tehtud,“ nentis Hwang. Keerulisemad deepfake’id on tema sõnul tavakasutajale kättesaamatud, kuid kindlasti mitte riikide valitsustele. Sellisel tasemel võltsingute tuvastamine oleks isegi ekspertide jaoks keeruline.
Kuna deepfake valmib masinõppe abil, mille jaoks on vaja ohtralt õppematerjali, siis võibki olla üheks ennetusmeetmeks treeningmaterjali „radioaktiivseks muutmine“ – kättesaadavale foto- ja videomaterjalile varjatud info lisamine. Selline meetod töötab aga üksnes isikute ja objektide puhul, mille salvestamist on võimalik kontrollida.
Parim relv deepfake’i vastu on aga mõlema eksperdi hinnangul lihtsalt ühiskonna teadlikkuse suurendamine ning inimeste harimine.
AI jätab trollid tööta
Kui võimalikest videomanipulatsioonidest on inimesed üsna hästi teadlikud, siis ootamatult ohtlikuks võivad osutuda tehnoloogiliselt isegi oluliselt lihtsamad heli- ja tekstipõhised deepfaked.
2019. aasta sügisel jõudis meediasse info juhtumi kohta, kus kurjategijad petsid arvutiga genereeritud deepfake telefonikõnet kasutades ühe Suurbritannia energeetikafirma tegevjuhilt välja 220 000 eurot. Tegevjuht oli veendunud, et suhtleb oma Saksamaal asuva emafirma bossiga, keda ta ka isiklikult tundis. Paratamatult tekib küsimus, kas sarnaselt oleks võimalik lollitada ka näiteks sõjaväelist käsuliini?
Tehnoloogia kiire areng võimaldab peagi selliseid heli- ja tekstipõhiseid deepfake’e genereerida reaalajas. Mis ühelt poolt tähendab seda, et tehisintellekt jätab töötuks näiteks Sankt-Peterburgis, Savuškini tänaval asuva trollifarmi usinad töömesilased, kuid teiselt poolt kahandab oluliselt igasuguse vahendatud suhtluse usaldusväärsust.
Koopia asemel originaal
Deepfake’ist rääkides peetakse enamasti silmas mõne tuntud isiku identiteedi kopeerimist ja asetamist situatsioonidesse, mida ei ole tegelikult selle isiku osalusel aset leidnud. Keir Giles peab tõusvaks trendiks aga hoopis täiesti kunstlike deepfake persoonide loomist. Esimeseks teadaolevaks täiesti tehislikuks persooniks võib pidada Katie Jones’i, kes Gilesi osalusel paljastati mullu aprillis. See 30ndates punapäine naine suutis end sotsiaalmeedia abil edukalt manööverdada Washingtoni võimukoridoridesse ning suhelda usalduslikult mitmete mõjukate meestega. Kuigi teda ei olnud tegelikult olemaski. „Katie Jones oli sõnumitooja – selliseid saab olema palju,“ prognoosib Giles.
Foto: deepak pal/Flickr/CC ja Katie Jones (deepfake)