Šodienas redaktors:
Lauma Lazdiņa
Iesūti ziņu!

Laikmets, kurā viltot var visu. Kā zināt, kas ir patiesība? (3)

Nākamās desmitgades lielais izaicinājums
Raksta foto
Foto: Pixabay

Mūsdienu tehnoloģijas ļauj radīt tā dēvētos deepfake - simulētus video, kuri izskatās reāli. Kamēr lielākajā daļā pasaules tikai teoretizē par to, kādu ietekmi uz sabiedrību tie atstās nākotnē, šāds video jau varētu būt destabilizējis politisko situāciju vienā Āfrikas valstī, raksta "Politico".

Pirms gada tika publiskota Gabonas autokrāta Ali Bongo ikgadējā Jaungada uzruna. Izskatījās, ka prezidents ir pie labas veselības, taču video šķita dīvains. Viņa labā roka bija uzkrītoši nekustīga, dažbrīd viņš šļupstēja. Ne vienam vien skatītājam šķita, ka viņa sejas izteiksmes ir dīvainas.

Bongo, kura ģimene jau 50 gadus pārvalda ar naftu bagāto valsti, trīs mēnešus iepriekš braucienā uz Saūda Arābiju bija pārcietis sirdslēkmi. Viņš skatītājiem sacīja, ka esot pārdzīvojis "sarežģītu posmu", taču "ar Dieva žēlastību" esot izveseļojies.

Varbūt pie video vērojamajām dīvainībām vainojamas veselības problēmas. Bet varbūt tas bija kas cits. Gabonas laikraksti izteica bažas, ka tas varētu būt bijis deepfake - ar mākslīgā intelekta tehnoloģijām radīts video, kas izskatās īsts, taču patiesībā attēlo cilvēkus sakām vai darām lietas, kas patiesībā nekad nav notikušas.

Drudžainie minējumi pēc nedēļas kulminēja ar militāra apvērsuma mēģinājumu. Apvērsuma plānotāji ieņēma sabiedrisko raidorganizāciju un izvietojās vairākās galvaspilsētas vietās. Pēc dažām stundām Bongo lojālie militāristi pielika punktu apvērsuma mēģinājumam.

Eksperti daudz prātojuši par to, kādu iespaidu uz nākotnes politiku atstās deepfake tehnoloģija. Taču Gabonas piemērs parāda, ka politiskos satricinājumus var radīt pat nemākulīgi manipulēti video. Vai arī šo tehnoloģiju pat nevajag reāli lietot - pietiek tikai ar šķietamību.

"Tas nozīmē, ka cilvēkiem var iestāstīt ne vien to, ka kaut kas neīsts ir īsts," skaidro Ņūkāslas Universitātes jurisprudences un inovāciju profesore Liliana Edvardsa, "bet arī likt noticēt, ka kaut kas īsts ir viltots."

Kopš Bongo gadījuma pagājis gads, taču jautājums par Jaungada uzrunas autentiskumu joprojām nav atrisināts. Parīzē bāzētā digitālo tiesību organizācija "Internet Without Borders" analizēja video sadarbībā ar amerikāņu mediju "Mother Jones". Pētnieki neatrada nekādus pierādījumus tam, ka video ir simulēts. Tajā pašā laikā viņi arī nevarēja droši izslēgt iespējamību, ka tas tomēr ticis darīts. 

Baumas par Bongo veselības stāvokli turpina izplatīties. "Dažiem pat šķiet, ka kāds cits izliekas par prezidentu un ir ieņēmis augstāko amatu valstī, kas, godīgi sakot, ir baisi," saka "Internet Without Borders" izpilddirektore Džūlija Ovono.

No pornogrāfijas līdz politikai

Deepfake tehnoloģija, tāpat kā ne viena vien inovācija, aizsākās ar pornogrāfiju. 2017.gadā forumā "Reddit" parādījās video - fragments no pornofilmas, kurā aktrises ķermenim tika piemontētas dažādu slavenību sejas. Nīderlandes kiberdrošības firmas "Deeptrace" 2019.gada oktobrī publicētajā ziņojumā norādīts, ka tehnoloģiju joprojām galvenokārt izmanto pornogrāfisku materiālu radīšanā.

Taču eksperti norāda, ka nākotnē to varētu plašāk lietot arī citās jomās, tai skaitā - pirmsvēlēšanu manipulācijās, lai veicinātu nemierus sabiedrībā un radītu diplomātisku saspīlējumu. Šā gada maijā sociālajos tīklos izplatījās video, kas bija palēnināts tā, lai ASV Pārstāvju palātas spīkere un prezidenta Donalda Trampa oponente Nensija Pelosi izskatītos piedzērusies. Savukārt 2018.gada novembrī bijušais Trampa padotais publicēja paātrinātu video, kas radīja iespaidu, ka raidorganizācijas CNN žurnālists pagrūž Baltā nama darbinieci. Abi video pārstāv tā dēvēto cheap fake žanru - ar vienkāršiem video rediģēšanas rīkiem iegūtus video. Neskatoties uz to, tie vairākas dienas uzkavējās ziņu virsrakstos.

Attīstoties tehnoloģijām, kļūs arvien grūtāk noteikt, vai video ir rediģēts. Bongo gadījums parāda, ka šī problēma ir aktuāla jau tagad.

Zinātnieku grupas no Bavārijas līdz pat Kalifornijai cenšas apsteigt deepfake ražotājus, piesaistot valdības un tehnoloģiju kompāniju palīdzību. Izmantojot tās pašas mašīnmācīšanās tehnoloģijas, mākslīgais intelekts tiek trenēts atpazīt manipulētus video. Taču pētnieki atzīst, ka pat šādā veidā, visdrīzāk, nevarēs iegūt pilnīgu skaidrību. Drīzāk tā kļūs par sacensību - deepfake veidotāji meklēs veidus, kā apiet šīs tehnoloģijas, īpaši, ja tās būs pieejamas publiski.

Taču "feiku" atklāšana ir tikai daļa no cīņas. Pētījumi parāda, ka deepfake parādīšanās ziņās sēj skatītājos šaubu sēklu, pat ja sižetā attiecīgais materiāls atspēkots. Daudzi nodomā - kādam patiesības graudam jau tur jābūt.

Turklāt deepfake rada tā saukto meļa dividendi - ja kāda publiska persona tiks nofilmēta situācijā, no kuras labāk gribētu izvairīties, tā varēs uzstāt, ka video ir safabricēts, norāda ASV tieslietu profesore Daniela Sitrona. 

Kam vēl deepfake sagādās galvassāpes

Tehnoloģija radīs problēmas ne vien politiskajā arēnā, bet arī juridisko profesiju pārstāvjiem. 2017.gadā Starptautiskās krimināltiesas galvenais prokurors Hāgā radīja precedentu: pirmo aresta orderi, kas balstījās uz sociālajos tīklos ievietotiem video. Izmeklētāji bija atraduši vairākus video, kuros vīrietis T-kreklā ar elitāras Lībijas militārās vienības emblēmu izpildīja vairākas nežēlīgas slepkavības kara plosītajā Bengāzī un tās tuvumā. Viņš tika identificēts kā īpašo spēku komandieris Mahmuds Mustafa Busaifs al-Verfalli.

Aresta orderis saistībā ar 33 slepkavībām tolaik tika raksturots kā zīme, ka Starptautiskā krimināltiesa beidzot sākusi dzīvot līdzi laikam. Taču divus gadus vēlāk situācija atkal mainījusies. Tādās platformās kā "Facebook", "Twitter" un "YouTube" atrodamos video tagad nākas uzlūkot ar pieaugošām aizdomām.

"Politico" aptaujātie tieslietu eksperti sacīja, ka nezinot nevienu gadījumu, kad deepfake video kādā lietā būtu iesniegts kā pierādījums. Taču ļoti iespējams, ka jau drīz tiesnešiem nāksies prātot, vai viņi var ticēt, piemēram, bērna aizbildnības lietā iesniegtam video, kurā māte redzama bērna klātbūtnē pārmērīgi lietojam alkoholu.

"Ja mēs atrodam video, kurā parādīts kāds incidents, mēs meklēsim papildu informāciju par attiecīgo incidentu," skaidro pilsoniskās žurnālistikas projekta "Bellingcat" dibinātājs Eliots Higinss, kurš apmācījis Starptautiskās krimināltiesas izmeklētājus, kā strādāt ar publiski pieejamajiem avotiem.

Viņš uzskata, ka nozīmīgās lietās neviens jurists nepaļausies tikai uz video vien.

Vienalga bīstami

Ar Ali Bongo video saistītie notikumi ir viens no pirmajiem gadījumiem, kas parāda deepfake tehnoloģiju iespējamo ietekmi uz politiku, neatkarīgi no tā, vai konkrētajā gadījumā tādas vispār tika izmantotas. Diez vai tas būs pēdējais gadījums.

"Viena mācība, ko paņemt no Gabonas, ir šāda - jāpievērš vairāk uzmanības tam, kas notiek aiz Eiropas, ASV vai Rietumvalstu robežām," uzsver Džūlija Ovono. 

"Jo [Rietumi] nav vieta, kur šādas lietas sākas. Tur tās notiek tikai tad, kad ir jau par vēlu. Kad problēmas samilzušas tik lielas, ka tās vairs nevar atrisināt."

Aktuālais šodien
Svarīgākais
Uz augšu