Līdz šim veids kā kibernoziedznieki centās apmānīt cilvēkus un ievilināt krāpšanas slazdos, bija visiem vairāk vai mazāk skaidrs. Tomēr izskatās, ka situācija mainās. Esam nonākuši līdz brīdim, kad nevaram vairs uzticēties pat paši sev. Tajā skaitā savai ausīm. Par to mēs varam “pateikties” mākslīgajam intelektam (MI) un deepfake tehnoloģijai.
Deepfake tehnoloģija plašākā sabiedrībā parādījās 2019.gadā. Izmantojot mākslīgo intelektu un deep learning tehnoloģiju tiek izveidots sintētisks video vai audio materiāls. Sākotnējā ideja bija veikt cilvēka sejas vai citas ķermeņa daļas samainīšanu ar kāda cita cilvēka ķermeni. Tāda pati samainīšanas ideja tiek izmantota arī attiecībā uz audio failiem. Lai, piemēram, izveidotu kvalitatīvu kāda politiķa deepfake video ir nepieciešams vairāku stundu video ar politiķa uzstāšanos, deep fake algoritmi un dažu stundu jaudīga datora darbs. Šāda deepfake video piemēru jūs varat aplūkot šeit – Obama deep fake video
Atgriezīsimies pie raksta galvenās tēmas – deepfake audio un jaunais krāpšanas veids. Tieši tāpat kā video failus, var izveidot arī mākslīgus audio failus. Pagaidām šī tehnoloģija vēl ir tikai sākuma stadijā un izveidotie ieraksti vēl nav 100% kvalitatīvi, tomēr neskatoties uz to ir jau fiksēti vairāki krāpšanas gadījumi, turklāt daži no tiem veiksmīgi.
Vienā no gadījumiem no kāda Apvienotās karalistes uzņēmuma tika izkrāpti 243 000 EUR.
Shēmā ir ļoti vienkārša: uzņēmuma vadītājam (vai arī finansistam) piezvana mātes kompānijas vadītājs un prasa steidzami pārskaitīt noteiktu naudas summu uz kādu bankas kontu. Citā situācijā šāda prasība visticamāk tiktu noraidīta, bet ņemot vērā, ka pēc akcenta un balss tembra tika atpazīts zvanītājs, tad šāds lūgums tika izpildīts. Tikai tad, kad krāpnieki zvanīja atkārtoti un vēlreiz pieprasīja veikt maksājumu, upurim radās šaubas par zvanītāja patieso identitāti.
Šādu gadījumu vēl nav daudz, bet par tādu esamību sāk parādīties arvien vairāk paziņojumu. Apdraudējumu iespējamība liek secināt, ka tuvā nākotnē uzņēmumiem nāksies pārskatīt procesus, kādā veidā notiks maksājumu pieprasījumi un apstiprināšana. Kā to realizēt būtu jāvērtē katram uzņēmumam individuāli atkarībā no tā uzbūves un iekšējiem procesiem.
Potenciālais drauds ne tikai uzņēmumiem
Lai gan dotajā mirklī deepfake krāpšana ir vairāk vērsta uz uzņēmumiem, tomēr arī citiem nevajadzētu atslābt un domāt, ka viņus tas neskars. Tiklīdz deepfake tehnoloģija kļūs ātrāka un izveidotie audio faili kvalitatīvāki, par potenciālajiem upuriem kļūs ikviens no mums. Vai jūs atteiktu savam bērnam, kurš jums zvanītu un lūgtu pārskaitīt 25 EUR, jo steidzami nepieciešams samaksāt par skolas ekskursiju? Vai arī mammai, kurai līdz pensijai ir palikušas dažas dienas un nav par ko samaksāt ārstam? Scenārijus var izveidot visdažādākos. Galvenā doma paliek tā pati – jums piezvana kāds ko jūs pazīstat un prasa veikt maksājumus. Ja attiecībā uz svešiniekiem mums ir psiholoģiskā aizsardzības barjera, tad runājot ar saviem tuvajiem un mīļajiem mums tās nav. Mēs daudz vieglāk izpildām dažādus lūgumus.
Jo steidzīgaka ir mūsu ikdiena, jo automātiskākas ir mūsu darbības, kuras rezultātā noved pie kļūdām.
Kārtējo reizi varam secināt, ka jebkuru tehnoloģiju var izmantot gan labiem, gan arī ļauniem mērķiem. Ar tehnoloģiju attīstību noziedzniekiem parādās jauni instrumenti, lai apkrāptu cilvēkus. Turklāt laicīgi fiksēt to kļūst arvien grūtāk un grūtāk. Svarīga loma aizsardzībā pret deepfake apdraudējumiem viennozīmīgi ir cilvēku informētībai un sagatavotības līmenim. Ja mēs zinām, kas mūs var apdraudēt, ir daudz vieglāk pamanīt dīvainības un laicīgi pasargāt sevi no kļūšanas par upuri.
Foto avots: ApolitikNow <a href=”http://www.flickr.com/photos/92457334@N04/50009305853″>deepfake</a> via <a href=”http://photopin.com”>photopin</a> <a href=”https://creativecommons.org/licenses/by-nc-sa/2.0/”>(license)</a>