OpenAI videogeneraator Sora avab uued uksed propagandale – Propastop
19.02.2024
Noormees istub pilvel ja loeb raamatut, nunnu dalmaatslane hüppab mööda päikselise maja aknalaudu, Hiina uusaasta paraad neelab linnatänava, arheoloog kaevab kõrbeliivast välja tooli. Need internetti postitatud videod kuvavad sündmuseid, mida pole tegelikult kunagi juhtunud. Need on esimesed avalikud videod, mille on loonud OpenAI äsja avalikustatud videote genereerimise tööriist Sora.
Sora koostab kasutaja kirjelduse põhjal kuni ühe minutilisi videosid, täpselt nagu ChatGPT vastab sisendile kirjalike vastustega ja Dall-E pakub pilte.
Uus tehnoloogia võimaldab jutustada uhkemaid videolugusid oluliselt väiksema ressursi eest, kuid need võivad ka suurendada internetis levivat desinformatsiooni ja tõhustada valitsuse propagandat, hägustades niigi nõrga piiri tõelise ja võltsitud sisu vahel.
Tehisintellektiga loodud videod ähvardavad samal ajal tugevdada vaenu õhutavaid või kallutatud vaatenurki, mis on kogutud nende loomise aluseks olevatest internetis leiduvatest materjalidest.
“Tõe selgus, mida me arvasime olevat salvestatud fotograafia ja videoga, on kadunud,” ütles Northwesterni ülikooli arvutiteaduse professor Kristian Hammond, kes uurib tehisintellekti. “Oleme tahtmatult üles ehitanud propagandamootorite maailma.”
Vastuseks ABC Newsi küsimusele, mida on ette võetud Sora kuritarvitamise vältimiseks, viitas OpenAI oma veebilehele.
“Enne Sora OpenAI toodetes kättesaadavaks tegemist võtame kasutusele mitmeid olulisi ohutusmeetmeid,” öeldakse ettevõtte veebisaidil. “Teeme koostööd punaste meeskonnaliikmetega – ekspertidega sellistes valdkondades nagu desinformatsioon, vaenuõhutav sisu ja eelarvamus –, kes testivad mudelit vastukaaluks.”
Ettevõte kavatseb rakendada mõningaid pildigeneraatori Dall-E juures kasutusel olevaid turvaelemente, sealhulgas tööriista, mis kontrollib teksti väljavõtteid tagamaks, et need ei riku eeskirju “äärmusliku vägivalla, seksuaalse sisu, vaenu õhutavate kujutiste ja kuulsuste sarnasuste vastu ega kasuta teiste IP-d.”
On raske hinnata demotoodet, mis pole veel avalikkusele kättesaadavaks tehtud, kuid sellest hoolimata tuleb olla tähelepanelik videogeneraatori väärkasutamise võimaluste osas ja täielikult tõhusate kaitsemeetmete rakendamisega seotud väljakutsete pärast.
“Sündmuste realistlikud pildid mõjutavad inimeste oletusi reaalses maailmas toimuva kohta ja neid saab kasutada inimeste petmiseks,” ütles Sam Gregory, Witnessi tegevdirektor. Witnessi eesmärk on video ja tenoloogia kasutamine inimeste kaitsmiseks ja inimõiguste kaitseks.
Tehisintellektiga loodud sisust tulenevad riskid on viimastel nädalatel eriti fookuses olnud. Popstaar Taylor Swifti võltsitud, seksuaalselt vulgaarsed tehisintellekti loodud pildid levisid sotsiaalmeedias jaanuari lõpus, kogudes miljoneid vaatamisi. President Joe Bideni häält kehastav võltsrobokõne heidutas inimesi eelmisel kuul New Hampshire’i eelvalimistel.
Sora, nagu ka teised generatiivsed tehisintellektitooted, on koolitatud veebiandmete põhjal, jättes selle vastuvõtlikuks laialdaselt reprodutseeritud eelarvamustele, nagu rassilised ja soolised stereotüübid.
Lisaks videoklippide ja sellest tuleneva sisu modereerimisele plaanib OpenAI rakendada “tuvastusklassifikaatorit”, mis suudab tuvastada, millal Sora on video tootnud. Kodulehel on välja toodud, et see sisaldab ka populaarset tunnustatud digitaalset silti, mis sisuliselt tähendab digitaalset vesimärki.
Sellised ettevaatusabinõud on kiiduväärt, kuid videosid võidakse siltide eemaldamise eesmärgil siiski paljundada või neid muuta.
“Inimesed püüavad paigaldatud kaitsepiiretest mööda pääseda,” lisas Hammond. “Tegemist on võidurelvastumisega.”
Kuvatõmmised on pärit loos kasutatud allikatest.