Это явление получило известность в XXI веке, но его наблюдала, сама не подозревая об этом, вся наша тогда очень большая страна еще в 1984 году. Когда на экраны вышел полюбившийся миллионам зрителей многосерийный фильм «ТАСС уполномочен заявить», рассказывающий о проведенной ранее уникальнейшей спецоперации. Выявленный советскими контрразведчиками иностранный агент покончил с собой, но чекистам удалось подготовить двойника, сбившего с толку многоопытных сотрудников ЦРУ. В какой-то степени ту остроумную и филигранно проведенную операцию можно назвать рукотворным прообразом современных дипфейков. Только сейчас эти созданные электронным интеллектом визуальные фальшивки способны принести человечеству немало бед.
В ходе совещания 11 февраля с руководителями ведущих государственных СМИ Президент напомнил, что перед журналистами сегодня стоят непростые задачи. «Противостояние, геополитическая нестабильность в разных частях мира, в том числе в нашем регионе, — все это в повестке сегодняшнего дня, — заявил Александр Лукашенко. — Подтасованные факты, фейки, дипфейки, так называемая постправда, когда аудиторией умело манипулируют, намеренно уводя от действительно важных проблем, — эта и другая информационная отрава сродни химическому оружию. То ли еще будет. Нас ожидают еще более сложные вещи, которые просто будет трудно опровергать. По крайней мере, в коротком промежутке времени».
Речь идет о дипфейках, создаваемых посредством нейросетей. Нейросеть — это своеобразный электронный аналог человеческого мозга, способный учиться, запоминать информацию и воспроизводить ее. Искусственный интеллект распознает людей по походке, генерирует реалистичные лица (ненастоящих) людей, даже создает мемы. Ему же по силам создавать дипфейки — это новый формат видеороликов, на которых лица одних людей заменяют другими.
Для создания таких видео используют генеративно-состязательные нейросети (GAN). В них одна часть алгоритма учится на реальных фотографиях определенного человека и создает изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнет путать копию с оригиналом. Технология эта была разработана в 2014 году, а известность получила три года спустя — сперва в виде порнороликов «с участием» известных кинозвезд, затем в виде нескольких видеошуток с киноактерами. Но уже через год миру стало не до шуток. В мае 2018-го в интернете появился ролик, в котором президент США Дональд Трамп обратился к жителям Бельгии с призывом не признавать Парижские соглашения по климату. Видео вызвало волну негодования в адрес американского президента, а позже выяснилось, что Трамп ничего подобного не говорил: ролик был заказан бельгийской соцпартией для привлечения внимания к проблеме изменения климата. Еще одно фейковое видео получило мировую известность: «Барак Обама» сперва грубит в адрес своего преемника, а затем предостерегает пользователей от опасности фейковых новостей: «Мы вступаем в эру, в которой наши враги могут заставить любого сказать что угодно и когда угодно».
Иными словами, дипфейк стал средством влияния. Рано или поздно фальшивка, конечно, обнаружится — но сколько негативных последствий принесет она до момента своего разоблачения! В Беларуси это хорошо понимают, а потому внимание к новому явлению становится все более пристальным, сообщил нам заместитель председателя Постоянной комиссии Палаты представителей по международным делам Олег Гайдукевич:
— В настоящее время Парламент вместе с министерством информации серьезно занимается этой темой, проработкой самих понятий «фейк» и «дипфейк».
Впрочем, законодательных инструментов для противостояния новым вызовам и угрозам в стране уже сегодня хватает. Главную проблему директор Информационно-просветительского учреждения «Актуальная концепция» Александр Шпаковский видит в практике их применения:
— На сегодняшний день существуют нормативно-правовые акты, которые регламентируют данную сферу: Закон о СМИ, уголовное и административное законодательство об оскорблениях, клевете, защите деловой репутации. Одновременно есть доктринальный документ — Концепция национальной безопасности, описывающая тенденции, риски, вызовы, угрозы, меры реагирования и т.д. Нужно просто, чтобы это законодательство работало. А нашим органам власти — не стесняться применять закон, в том числе в отношении тех субъектов информационного поля, которые беззастенчиво это законодательство нарушают.
На деле же, с сожалением отмечает эксперт, в подобных случаях проявляет себя серьезное противодействие законным мерам властей, идущее извне:
— Беларусь — безусловно суверенное государство. Но когда наши органы власти применяют существующее законодательство в отношении тех или иных субъектов, начинается негативная международная реакция. Которая по сути является, на мой взгляд, не просто неправовой, а имеет признаки вмешательства во внутренние дела нашей страны. По сути это отбеливание нарушителей закона только лишь исходя из того, что они действуют в интересах внешних игроков. Мы это можем наблюдать всякий раз, когда государство в соответствии с действующим законодательством пытается привлечь к ответственности отдельных распространителей фейковой информации.
Похоже, необходимость политической воли на глобальном уровне для борьбы с фейками сегодня вплотную столкнулась с политической волей ряда сил, осознавших удобство фальшивок. И пока машинные алгоритмы оттачивают все более совершенные дипфейки, человеческий интеллект сошелся в схватке с человеческими амбициями. Победит при этом человеческий разум, либо же верх возьмут амбиции манипуляторов от политики. Один из двух этих вариантов — однозначно фейковый. А какой — это зависит от всех нас.
В технологии дипфейков аналитики видят огромный потенциал для коммерции и киноиндустрии. Однако возможность приписать любому человеку слова и действия, которых он не говорил и не совершал, несет огромные угрозы.МНЕНИЕ
Исследовательская компания IntSights опубликовала перечень наиболее значимых киберугроз 2020 года. Эксперты считают, что интернет ждет новый всплеск фейков и дипфейков, а хакерские атаки и кража личных данных станут более изощренными. И произойдет это благодаря массовому применению злоумышленниками искусственного интеллекта (ИИ). «Мы станем свидетелями массового применения ИИ при таргетированных и автоматических атаках», — заявил в интервью телеканалу CNBC директор по изучению киберугроз нью-йоркской исследовательской компании IntSights Итай Маор.
ДОСЛОВНО
Алекс Хёрн, обозреватель The Guardian (Великобритания):
— Техники дезинформации все шире используются в Великобритании крайне правыми, а также политиками для убеждения избирателей, предупреждают из Оксфорда. По оценкам специалистов Института изучения интернета при Оксфордском университете, «значительная часть обнаруженной дезинформации и мусора была доморощенным гибридным контентом, а не иностранного происхождения», и «входной порог для продвижения сомнительного или некачественного контента крайне низок». «Мы определили множество сайтов, которые ловко оперируют дезинформацией, чаще всего они публикуют контент с крупицами правды, но упакованный и искаженный слоями лжи, — поясняют эксперты. — Некоторые новостные сайты сообщают достоверную информацию, но подбирают материалы тенденциозно, чтобы у читателей сложилась искаженная картина».
osipov@sb.by