Iesūti ziņu!

Eksperts: “Deepfake” tehnoloģija nākotnē varētu radīt finanšu krāpniecības draudus (2)

Raksta foto
Foto: AFP / Scanpix

Kibernoziegumu sfērā turpina attīstīties "deepfake" jeb dziļo viltojumu tehnoloģijas, kas ar mākslīgā intelekta palīdzību ļauj radīt viltus videoklipus vai fotogrāfijas. Tās līdz šim galvenokārt izmantotas izklaides industrijā, taču tuvākajā laikā krāpnieki varētu tās lietot arī finansiāla labuma gūšanai. Kas tās ir un kam pievērst uzmanību, lai neuzķertos uz viltus video zvaniem, skaidro "Luminor" Finanšu noziegumu novēršanas pārvaldes vadītājs Aleksejs Makarus.

Šobrīd plašākai sabiedrībai pieejamā dziļā viltojuma tehnoloģija atrodas vēl izklaides līmenī, piemēram, ļaujot pārveidot fotogrāfijā vai video redzamā cilvēka izskatu ar dažādu lietotņu palīdzību viedtālrunī, kuru lietošanai nav nepieciešamas specifiskas zināšanas. Tomēr tehnoloģiju potenciāli var lietot arī nopietnākām manipulācijām, piemēram, uzbrukumiem un krāpniecības mēģinājumiem.

“Dziļo viltojumu tehnoloģijas izstrādājumus var jau pamatoti uzskatīt par nākotnes apdraudējumu, krāpnieciskiem telefona zvaniem nomainot pat reālā laika videozvanus.

Dziļā viltojuma tehnoloģijas satura un autentiskuma pārbaudei nepieciešams būt īpaši modriem, turklāt jāzina, kam pievērst uzmanību, jo viltus video ir grūti atpazīt. Tas ļauj krāpniekiem vieglāk pārliecināt personas, ka krāpnieks, piemēram, ir bankas darbinieks, tādējādi iegūstot piekļuvi personas datiem un citai svarīgai informācijai, tai skaitā arī bankas kontam,” norāda "Luminor" Finanšu noziegumu novēršanas pārvaldes vadītājs Makarus.

Šobrīd Latvijā dziļo viltojumu tehnoloģiju izmantošana vēl nav plaši izplatīta, tomēr eksperts norāda, ka, pieaugot attālinātā darba popularitātei, jau pāris gadu laikā arī šai tehnoloģijai ir potenciāls radīt papildu krāpniecības riskus.

Par arvien jaunām krāpniecības formām ieteicams būt informētiem pirms saskares ar tiem, jo dziļo viltojumu izmantošana var būt klātesoša arī citu, ne tikai finanšu noziegumu paveikšanai. Piemēram, "deepfake" tehnoloģija var kalpot kā instruments arī citas valsts propagandai nepatiesas informācijas izplatīšanai vai, piemēram, radot viltus ziņas, kurās tiek izmantotas neīstas fotogrāfijas un pat satelītuzņēmumi.

Kā atpazīt dziļo viltojumu tehnoloģiju video?

- Pievērs uzmanību personas ķermeņa valodai un izskatam

Viens no pirmajiem signāliem par iespējamu dziļo viltojumu tehnoloģiju izmantošanu ir nedabiska acu vai ķermeņa kustība, kā arī sejas izteiksme kopumā. Piemēram, video redzamā persona var ilgstoši nemirkšķināt acis vai tās seja var būt dīvainas formas – tā, it kā viena fotogrāfija būtu uzlikta uz otras. Tāpat jāpievērš uzmanība ekrānā redzamās personas zobiem un matiem, jo šādas detaļas pagaidām ir visgrūtāk atveidot.

- Ieklausies fona trokšņos un skaņas kvalitātē

Vairumā gadījumu video faila sagatavošanai krāpnieki mēdz pievērst lielāku uzmanību vizuālajiem risinājumiem nekā skaņas kvalitātei un pielāgošanai saturam. Robotiska balss, nevienmērīga lūpu kustība runājot, dīvaina vārdu izruna vai digitāli veidotas fona skaņas var liecināt par to, ka video redzamā persona nav īsta.

- Pārbaudi attēla “vēsturi”

Papildu video vai foto autentiskuma noteikšanai var izmantot arī reverso attēla meklēšanu, piemēram, izmantojot "TinEye" rīku. Ar tā palīdzību var noteikt, vai tiešsaistē atrodami ekrānā redzamajam līdzīgi attēli un vai tajā nav kas mainīts.

Šobrīd tiek attīstīti arī video meklēšanas rīki, kas nākotnē palīdzēs noteikt, vai tajā netiek izmantotas dziļās tehnoloģijas. Taču tas, ko var darīt, ir mēģināt palēnināt video, pievēršot uzmanību kādai no augstāk minētajām detaļām, piemēram, personas runai, žestiem, lūpu kustībām vai citiem elementiem, kas var liecināt, ka video ir pārveidots.

Svarīgākais
Uz augšu