Борьба с дипфейками, как с ними бороться

Борьба с дипфейками, как с ними бороться

В эпоху цифровых технологий озабоченность фейковыми новостями все больше привлекает внимание общественных организаций, средств массовой информации и различных личностей. Не зря Fake News имели определенный вес в важных избирательных процессах, таких как президентские выборы в США в 2016 году, референдум о выходе Соединенного Королевства из Европейского Союза или генералы Бразилии, которые принесли победу Болсонару.

Не заходя так далеко, в нашей стране Facebook недавно пришлось закрыть три большие сети ультраправых, которые с помощью 30 страниц, групп и дублированных учетных записей собрали более полутора миллионов подписчиков и более 7 миллионов взаимодействий . Эти группы были посвящены распространению мистификаций и ложных изображений.

Но теперь мы сталкиваемся с другим типом цифровых угроз, которые порождают новые головные боли. Мы говорим о так называемом Deepfake, термине, который происходит от комбинации «глубокого обучения»  и «фейка». По сути, это форма искусственного интеллекта,  которая позволяет любому пользователю редактировать поддельные видео и аудио людей, которые кажутся реальными. Для этого используются  антагонистические генеративные сети (AGR) , своего рода алгоритм, который может создавать новые типы данных из других наборов, которые уже существуют.

В конечном счете, «дипфейки» - это еще одна форма цифровых манипуляций , и в лучшем случае одна из наиболее вероятных в использовании для «троллинга». Но как их обнаружить? И, прежде всего, что делают частные учреждения и компании, чтобы предотвратить его катастрофические последствия? В этом выпуске мы рассмотрим усилия, предпринимаемые для того, чтобы остановить это новое цифровое бедствие.

Почему дипфейки так опасны?

Технология «дипфейка» позволяет нам легко заменять лицо одного человека лицом другого, как если бы это была своего рода цифровая маска или маска, чтобы заставить нас поверить,  что он сказал определенные вещи, которых на самом деле никогда не было . Как вы можете догадаться, эти методы имеют ряд весьма важных последствий для определения легитимности информации, циркулирующей в Интернете.

Хотя они часто используются для создания юмористических видеороликов, правда в том, что «дипфейки» обладают темным потенциалом для разрушения общественного имиджа человека или влияния на общественное мнение с помощью дезинформации. К сожалению, мы вынуждены сообщить вам, что это неправильное использование более распространено, чем нам хотелось бы, и мы должны добавить, что с огромным успехом.

Ярким примером является приложение DeepNude, которое позволило вам загрузить изображение человека в одежде и создать  новое изображение того же обнаженного человека . К счастью, он уже закрыт, но мы должны подчеркнуть простоту использования этого типа инструментов, для которых не требуется никаких знаний редактирования, поскольку всю работу выполняет сам алгоритм.

глубокая обнаженная

В случае DeepNude платформа дала невероятно реалистичные результаты и была полностью доступна через ее веб-сайт для Windows и Linux . И, как и ожидалось, монтажи со знаменитостями, такими как Кэти Перри или Галь Гадот, не заставили себя долго ждать, чтобы появиться в сети, вплоть до того, что давление со стороны адвокатов этих актрис не прекратилось, пока важные веб-сайты с контентом для взрослых не удалили видео. .

Это лишь верхушка айсберга возможностей обработки, которые могут иметь эти типы приложений. Теперь представьте себе последствия кампании такого типа, направленной против определенного политического деятеля с целью манипулирования избирательным процессом в стране или регионе. Зло не знает границ.

дипфейк

Как борются с дипфейками?

Одной из первых компаний, которая высказалась, была не кто иной, как Google, которая объявила о своей твердой воле бороться с дипфейками и, как они говорят в этих случаях, пожар тушит. Технологический гигант подтвердил запуск целой базы данных, содержащей до 3000 видео, обработанных с помощью искусственного интеллекта (дипфейки), которые были созданы специально для улучшения инструментов обнаружения исследователей.

Для этого Google нанял реальных актеров, которые снимают их лица и используют их в качестве ориентира, чтобы определить, было ли видео было искусственно изменено. Используя доступные каждому методы генерации дипфейков, из этих записей создаются тысячи дипфейков.

Полученные в результате видео, настоящие и поддельные, загружаются на платформу совместной разработки GitHub, чтобы исследователи полностью понимали, что производит система. Эта база данных, как мы говорим, полностью доступна, хотя сначала вам нужно будет дать разрешение .

Со своей стороны Facebook также планирует создать аналогичную базу данных до конца этого года. По словам ее главного исполнительного директора Марка Цукерберга, основная проблема заключается в том, что  в отрасли нет стандартизированной системы для их обнаружения . Вот почему он объединился с Ассоциацией искусственного интеллекта, Microsoft и учеными из Корнельского технологического института, Массачусетского технологического института, Оксфорда, Калифорнийского университета в Беркли, Университета Мэриленда, Колледж-Парка и Университета Олбани-SUNY для создания задачи обнаружения глубоких подделок. (DFDC - аббревиатура на английском языке).

Этот макропроект будет включать обширную базу данных и подробную классификацию , а также финансовую помощь и пожертвования для поощрения как можно большего числа сотрудников. Идея состоит в том, чтобы создать своего рода сообщество, которое помогает обнаруживать и избегать манипулирования видео с помощью ИИ.

Нет сомнений в том, что распространение «дипфейков» стало очень серьезной проблемой с серьезными последствиями, которые нельзя игнорировать. Хотя меры, предлагаемые основными агентами, приверженными этому делу, могут показаться непрактичными или даже контрпродуктивными, в конечном итоге они могут быть единственным способом искоренить это преступление. Хотя это может показаться нелогичным, борьба с «дипфейками» с помощью большего количества «дипфейков» поможет средствам обнаружения поглотить больше данных, чтобы облегчить им поиск таких типов монтажа .