“Deepfake texnologiyası qadınlara qarşı silahlanır” – Saxta videolar necə hazırlanır?

Siz Barak Obamanın Donald Trampı “tam axmaq” adlandırdığını və ya Mark Zukerberqin milyonlarla insanın oğurlanmış ağlına nəzarət etdiyi ilə öyündüyünü görmüsünüzmü”?

Siz artıq Deepfake ilə tanışsınız.

Deepfake süni intellektdən istifadə edərək mövcud təsvir və ya videodakı şəxsin başqa bir şəxsin şəkli ilə əvəz edildiyi media növüdür. Deepfake “dərin öyrənmə” və “saxta” sözlərindən əmələ gələn yeni bir media terminidir. Deepfake, heç vaxt baş verməmiş hadisələri, ifadələri və ya hərəkətləri əks etdirən yeni kadrlar yaratmaq üçün şəkillərin birləşdirildiyi kompüter tərəfindən yaradılmış süni videolardır. Nəticələr olduqca inandırıcı ola bilər. Dərin saxtakarlıqlar digər yalan məlumat formalarından yalan olduğunu müəyyən etmək çox çətin olması ilə fərqlənir.

Onlar nə üçündür?

Bir çox deepfake materialları pornoqrafik xarakter daşıyır. Buna incəsənət xadimləri, siyasətçilər, aktyorlar, hətta uşaq istismar sahələri də əlavə edilə bilər. Süni intellekt firması Deeptrace 2020-ci ildə təkcə parnoqrafiya sahəsinə aid – onlayn olaraq 30 min deepfake video tapdı. Bu videolar doqquz ay ərzində təxminən iki dəfə artdı. Təəccüblüsü 96%-i pornoqrafik, 99%-i isə qadın məşhurlardan porno ulduzlara qədər təsvir edilmiş üzlər idi. Boston Universitetinin hüquq professoru Danielle Citron dediyi kimi: “Deepfake texnologiyası qadınlara qarşı silahlanır.”

Deepfake ancaq videolardan ibarətdir?

Xeyr. Deepfake texnologiyası sıfırdan inandırıcı, lakin tamamilə uydurma fotolar yarada bilər.

Kimlər deepfakes edir?

Hər kəs. Hətta ən yüksək səviyyədə belə. Hökumətlər, məsələn, ekstremist qrupları gözdən salmaq və sıradan çıxarmaq və ya hədəflənmiş şəxslərlə əlaqə yaratmaq üçün onlayn strategiyalarının bir hissəsi kimi texnologiya ilə də məşğul ola bilər .

Deepfakeni necə aşkar edirsiniz?

Texnologiya inkişaf etdikcə bu daha da çətinləşir. 2018-ci ildə ABŞ tədqiqatçıları dərin saxta üzlərin normal olaraq göz qırpmadığını aşkar etdilər. Ancaq bu aşkarlıq meydana çıxan kimi bu məsələ də həll olundu. Oyunun təbiəti belədir: zəiflik aşkarlanan kimi düzəldilir. Keyfiyyətsiz dərin saxtaları aşkar etmək daha asandır. Dodaqların sinxronizasiyası pis ola bilər və ya dəri tonu ləkələnmiş ola bilər. Köçürülən üzlərin kənarlarında titrəmələr ola bilər. Saç kimi incə detalların, xüsusilə saçaqda iplərin göründüyü yerlərdə dərin saxtakarlıqların yaxşı işləməsi xüsusilə çətindir. Səhv işlənmiş zərgərlik aksessuarları və dişlər, eyni zamanda qeyri-sabit işıqlandırma burda özünü göstərə bilər.

Hökumətlər, universitetlər və texnoloji firmalar dərin saxtakarlıqları aşkar etmək üçün tədqiqatları maliyyələşdirir.

Deepfakes təxribat törədə bilərmi ?

Bizi narahat edən, qorxudan, alçaldan, sarsıdan və sabitliyi pozan daha dərin saxtakarlıqlar gözləyə bilərik. Onlar etimadı sarsıdacaqlarmı?

Çözüm nədir?

Süni intellekt artıq saxta videoları aşkarlamağa kömək edir, lakin bir çox mövcud aşkarlama sistemlərinin ciddi zəifliyi var: onlar məşhurlar üçün ən yaxşı şəkildə işləyir, çünki onlar saatlarla sərbəst mövcud kadrlar üzərində məşq edə bilirlər. Texnoloji firmalar indi saxtakarlıqlar göründükdə onları aşkarlamağı hədəfləyən təsbit sistemləri üzərində işləyirlər.

Deepfakes həmişə zərərlidirmi?

Çoxları əyləncəlidir, bəziləri isə faydalıdır. Səs klonlayan deepfakes, insanların səslərini xəstəliklərə görə itirdikdə onları bərpa edə bilər. Deepfake videoları qalereyaları və muzeyləri canlandıra bilər. Floridada, Dali muzeyində sənətini təqdim edən və ziyarətçilərlə selfi çəkən sürrealist rəssamın dərin saxtası var. Əyləncə sənayesi üçün texnologiya xarici dilli filmlərin dublyajını yaxşılaşdırmaq və daha mübahisəli şəkildə ölü aktyorları diriltmək üçün istifadə edilə bilər.

Deepfakesləri necə aşkar etmək olar?

İnternetdə qarşılaşdığımız bütün məlumat növləri kimi, onlayn videoların və ya şəkillərin həqiqi və real olduğuna qərar verərkən edə biləcəyimiz ən vacib şey tənqidi düşüncədən istifadə etməkdir.
Biz tənqidi düşüncədən istifadə etməli və özümüzə aşağıdakı kimi əsas suallar verməliyik:

Bu videonu kim və niyə paylaşır?
Orijinal mənbə kimdir və ya nədir?
Video nə vaxt və harada çəkilib?
Videodakı adam heç vaxt deməsini gözləmədiyiniz bir şey deyir?
Video başqasının gündəmini irəli sürürmü? Bu videodan kimə xeyir?

Məqalə Azərbaycan Respublikasının Qeyri-Hökumət Təşkilatlarına Dövlət Dəstəyi Agentliyi tərəfindən maliyyələşdirilən Qlobal Media və Siyasət Araşdırmaları İctimai Birliyinin “Xəbəri yoxlamamış inanma! Saxta xəbərlərin yayılması və onlara qarşı mübarizə tədbirlərinin təşkili” layihəsi çərçivəsində dərc olunub. Məqalədə səslənən fikirlərə görə Azərbaycan Respublikasının Qeyri-Hökumət Təşkilatlarına Dövlət Dəstəyi Agentliyi heç bir öhdəlik və məsuliyyət daşımır.

Globalinfo.az