15.04.2024
Hiljuti tekitasid Eesti ühismeedias palju pahameelt jalgpallur Konstantin Vassiljevi ebalevad hinnangud Venemaa sõja kohta Ukrainas. Kujutage ette oma üllatust, kui sellise kriitika peale oleks ühismeedias ilmunud tuhandeid vigases eesti keeles Vassiljevi väljaütlemisi õigustanud postitusi?
Aga just sarnane ennenägematu lugu juhtus äsja Lätis. Meie lõunanaabrite juures lahvatas avalikkuses pahameel seitsme hokimängija suhtes, kes Ukraina sõja teisel aastapäeval osalesid Venemaal Kaasanis võistlustel, mille avas president Vladimir Putin isiklikult. Seepeale ilmus lätikeelsesse ühismeediasse tuhandeid hokimeeste käitumist õigustavaid postitusi. Erakordseks tegi juhtunu just see, et massiivse inforünnaku läbiviimiseks kasutati esimest korda läti keelt.
Oleme juba ammu harjunud, et poliitikute kõnesid kirjutavad valmis nende nõunikud. Kui ühel hetkel hakati tehistaipu artiklite tootmiseks rakendama, siis tundus see tegevus ebaeetiline. Põhjust võib otsida asjaolus, et enamik süvavõltsinguid (deep fake) pole ärakasutatava inimesega kuidagi kooskõlastatud ning on vulgaarse sisuga. Meenutagem näiteks Taylor Swifti skandaalset deep fake kampaaniat, kus kiirelt viraalseks läinud piltidel kujutati artisti pornostaarina. Taolise tegevuse eesmärk on tarbijate petmine ning inimeste maine kahjustamine.
Tehisintellekti areng tähendab, et taolise sisu tootmiseks kulub järjest vähem ressursse. Ühe süvavõltsingu saamiseks piisab täna juba mõne hiirekliki tegemisest.
Tänavu veebruaris avaldati Ameerika Ühendriikides läbi viidud uuringu tulemused, milles jõuti järeldusele, et tehistaip (AI – artificial intelligence) suudab toota vähemalt samal tasemel usutavat propagandat kui inimene. Ja kui inimkäsi käib AI loodud materjalid mõttega üle, siis on toodetud sisu isegi veenvam. Lisaks pole sel juhul roboti loodud propaganda tuvastamine nii tõenäoline.
NATO strateegilise kommunikatsiooni kompetentsikeskus (NATO StratCom COE) avaldas hiljuti raporti näidetega, kuidas petta ära tööriistu, mis AI-genereeritud sisu peaks ära tundma. Praegused treenitud tööriistad võimaldavad enamus juhtudel sünteetiliselt genereeritud sisu ära tunda.
Keskuse asedirektor Einar Linn kommenteerib olukorda: “AI-genereeritud tekstil ja mõningatel juhtudel juba ka pildil ja audiol inimene enam vahet tõesti ei tee.” Keskuse hinnangul on varsti enamik online sisust sünteetiline ja selle eristamine järjest raskem.
Patenteeritud mudelid jätavad loodud sisule iseloomuliku märke külge, mis on tuvastamisel suureks abiks. Tsenseerimata, avatud lähtekoodiga mudelite tulekuga tõuseb esile ka uus probleem. Neid mudeleid saab peenhäälestada vältimaks nende mustrite kasutamist, mille alusel tuvastusvahendid sünteetilist sisu on õppinud ära tundma. Ühes katses söödeti tuvastusvahendile ette AI loodud pildist madala resolutsiooniga versioon, mille tulemusena kukkus tehisintellekti loomise tõenäosuse hinnang 97 protsendilt 0,1 protsendile.
Tõenäoliselt hakkame tulevikus nägema, kuidas AI poolt genereeritud piltidele on filtreid peale keeratud, näiteks lisatud digitaalset müra, pilti venitatud või hoopis hägustatud. Kõik ikka selleks, et jääda tuvastusvahenditele märkamatuks.
On teada, et tehistaip ei ole veel väiksemates keeltes liiga osav. Tänu sellele pole me eestikeelses meediaruumis ka liiga palju sünteetilist propagandat kohanud. Loodud sünteetilised materjalid mõjuvad toorelt ning mitteusutavalt.
Toimetaja tõlkebüroo viis läbi eksperimendi, kus kasutas lihtsa tekstilõigu eesti keelde tõlkimisel erinevaid tõlkemootoreid. Katse tulemusena võib öelda, et masintõlge on viimase paari aasta jooksul teinud hüppelise arengu ja tõlke kvaliteet on läinud üha paremaks. Siiski ei ole see veel piisavalt hea, et ilma inimese abita veatu tulemuseni jõuda.
Täna masintõlkeprogrammid inimtööd veel üle ei võta ja usutavaid propagandatekste automaatselt ei tooda, kuid ei tasu loota, et see nii ka jääb. Linn hoiatab: “Praegu tõesti on väikestel keeltel veel mõningane nö turvaeelis. See erinevus suurte keeltega aga väheneb hoogsalt.”
Tuleme siinkohal tagasi Läti hokimängijate näite juurde. Alles hiljuti puutusid Läti sotsiaalmeedia kasutajad kokku enneolematu robotite rünnakuga. Balti Uuriva Ajakirjanduse Keskuse Re:Baltica toob välja, et rünnaku käigus hakkasid tuhanded kontod ühtäkki rääkima algelist läti keelt ja kaitsma Venemaal mängimist jätkanud hokimängijaid.
Veebruari lõpus tabas lätikeelset ühismeediat puises läti keeles kremli-meelseid sportlasi õigustav inforünnak.
“Oleme Twitteris nn robotrollimist analüüsinud seitse aastat ja see on esimene kord, kui nii ulatusliku lätikeelse kampaaniaga kokku puutume,” ütles NATO NATO StratCom COE juht Jānis Sārts.
See oli esimene sellises mahus operatsioon ühes Balti riigi keeles ja on viinud spekulatsioonideni, et nähtu võis olla soojendus Euroopa Parlamendi valimistele.
Einar Linn võtab teema tabavalt kokku: “AI osas käib nö kassi-hiire mäng. Tööriistu saab kasutada nii sõnumite edukamaks kohale viimiseks kui ka tuvastamiseks ja neutraliseerimiseks, samuti edastusvõrgustike kaardistamiseks. Küsimus on, kas edukamaks osutub selles kõiges punane või sinine võistkond.”
Kasutatud pildid on kuvatõmmised viidatud lehekülgedelt.