Вы яшчэ верыце ўласным вачам?
Палітыкі п’янствуюць і амаль мацюкаюцца. Бізнесмены прызнаюцца ў злачынствах, акцёры “лепяць” сабе чужыя твары і не зразумела што робяць. У інтэрнэце поўна відэаролікаў, у якіх знакамітасці робяць дзіўныя рэчы. Аднак усё гэта хлусня. Дыпфэйкі (ад англійскага deep – “глыбокі”) – гэта калі з дапамогай штучнага інтэлекту на рэальных відэа мяняюць знешнасць і голас чалавека. Падман, зразумела, раскрыецца, але да таго часу можа сур’ёзна падпсаваць нервы і знішчыць кар’еру. Эксперты ўжо назвалі дыпфэйкі галоўнай інфармацыйнай зброяй гэтага года. Як далёка ўсё зайшло? Спытаем у дарадцы-кансультанта Беларускага інстытута стратэгічных даследаванняў Віталя Дэмірава.
Фэйкі – справа даўняя, і прыйшлі яны да нас сур’ёзна і надоўга, сцвярджае эксперт. Адны шакуюць грамадскасць гучнымі выкрыццямі ў газетах, у сеціве. Іншыя публікуюць не менш сенсацыйныя здымкі. Трэція разносяць фальшывыя навіны ў мэсэнджарах, сацсетках. Пару гадоў таму ў Мексіцы збілі і спалілі дваіх мужчын з-за распаўсюджаных у Facebook і WhatsApp чутак пра тое, што нібыта гэтыя двое выкрадалі дзяцей. У паведамленнях гаварылася, маўляў, будзьце напагатове, у краіну прыйшоў біч – выкрадальнікі дзяцей. Там жа палохалі: злачынцы могуць быць замяшаны ў гандлі органамі, за апошнія некалькі дзён зніклі дзеці, а іх “целы знайшлі са слядамі выдаленых органаў, ім разрэзалі і вытрыбушылі жываты”. Чуткі апынуліся фэйкам, але раз’юшаны натоўп зрабіў сваю справу, не чакаючы, пакуль у сітуацыі разбяруцца. Падобная гісторыя адбылася ў той жа перыяд у Індыі.
– Спробы маніпулявання праз інфармацыю вядомыя з даўніх часоў, – нагадаў Віталь Дэміраў. – Гэта паказана, да прыкладу, у старажытнакітайскім трактаце Сунь-Цзы “Мастацтва вайны”. У XIII стагоддзі да н.э. бітва паміж Егіптам і Хецкай дзяржавай скончылася тактычнай нічыёй, аднак абодва бакі прыпісалі перамогу сабе, пра што накрэслілі на камянях сваіх палацаў. Усё гэта маніпуляцыі, разлічаныя на тое, каб накіраваць грамадскую думку, паводзіны натоўпу ў патрэбнае рэчышча. Так было заўсёды, розніца толькі ў канале перадачы ілжывых звестак – няхай гэта будзе камень на палацы, газета, відэаэфір або акаўнт у сацсетцы.
Зараз набірае папулярнасць іншы канал – дыпфэйкі. Для стварэння такіх фэйкавых відэа выкарыстоўваюць генератыўна-спаборныя нейрасеткі (GAN). Спачатку збіраюць у адкрытым доступе фатаграфіі патэнцыяльнай ахвяры, загружаюць іх у праграму, а далей справа тэхнікі. Віталь апісвае механізм, імкнучыся не паглыбляцца ў складаныя тэхнічныя падрабязнасці: адзін алгарытм GAN вывучае фота і відэа з канкрэтным чалавекам і самастойна стварае карцінку, канкурыруючы з іншым алгарытмам да таго часу, пакуль ён не стане блытаць падробку і арыгінал. Гэта значыць, у арыгінальным роліку “твар” аднаго чалавека нібы маску накладваюць на іншага. Таксама з дапамогай праграмнага забеспячэння можна “прымусіць” ахвяру вымавіць патрэбны тэкст – тут праграма вывучыць сувязі паміж ротам чалавека і канкрэтнымі словамі, калі ён іх кажа. Трэба прыляпіць твар да чужога цела? Нейрасеткі зробяць гэта, прааналізаваўшы сувязі паміж імі.
Поўны артыкул чытайце на рускамоўнай версіі сайта.