Генеративные нейронные фейки: как машинное обучение меняет восприятие мира

Редакция Оксфордского словаря выбрала слово «постправда» (post-truth) почетным «словом 2016 года». Термин этот описывает обстоятельства, в которых объективные факты менее важны для формирования общественного мнения, чем обращение к эмоциям и личным убеждениям.

Особенно высокая частота использования этого слова наблюдалась в англоязычных публикациях после президентских выборов в США в связи с распространением большого количества фейковых новостей, после которых сама истина большого значения не имела.

По мнению ряда аналитиков, распространение фальшивых дискредитирующих новостей стало одной из причин поражения Хилари Клинтон на выборах. Одним из главных источников ложных новостей стала алгоритмическая лента Facebook.

На этом фоне почти незамеченными остались новости, поступающие от разработчиков в сфере искусственного интеллекта. Мы уже привыкли, что нейросети рисуют картины, создают фото человека по его словесному описанию, генерируют музыку. Они делают всё больше, и с каждым разом у них получается всё лучше. Но самое интересное в том, что машины научились создавать фейки.

Влияние фейков

 

Во время предвыборной гонки в США количество репостов фальшивых новостей в соцсетях превышало количество перепостов правдивых сообщений, потому что фальшивки больше соответствовали ожиданиям или оказывались более захватывающими. После выборов компания Facebook наняла независимых факт-чекеров, которые стали помечать непроверенные сообщения для предупреждения пользователей.

Сочетание повышенной политической поляризацией общества и склонности к прочтению главным образом заголовков, даёт кумулятивный эффект. Поддельные новости также часто распространяются посредством поддельных новостных сайтов, информация с которых часто попадает в главные СМИ, которые гонятся за привлечением пользовательского трафика. А ничто не привлекает трафик так, как броский заголовок.

Но на самом деле одной лишь политической сферой воздействие фейков не ограничивается. Есть множество примеров, демонстрирующих влияние лживых новостей на общество.

 

Австралийская компания, занимающаяся производством видео, два года выпускала фейковые вирусные ролики, которые набирали сотни миллионов просмотров.

В продуманный фейк про Сталина, лик которого якобы появился в московском метро, поверили даже 1-го апреля.

Миллионер Илья Медков в 1992 году начал платить крупным информагентствам России и СНГ (включая «РИА Новости», «Интерфакс», «ИТАР-ТАСС»). «ИТАР-ТАСС» пустило в СМИ ложное сообщение об аварии на Ленинградской АЭС в январе 1993 года. В результате акции ведущих скандинавских компаний упали в цене, и до появления опровержения в СМИ агенты Медкова скупали самые выгодные акции шведских, финских, и норвежских компаний.

26 июня 2017 года курс второй по капитализации криптовалюты Ethereum резко пошел вниз — биржа отреагировала на появившиеся в сети слухи о трагической смерти создателя Эфира Виталия Бутерина. Причем первая «срочная новость» появилась на анонимной имиджборде 4chan — а это источник, прямо скажем, не самый надежный.

В Википедии написали, что «Виталик был русским программистом», а затем и жёлтая пресса подхватила новость. В результате курс эфира упал на 13%, примерно с 289 до 252 долларов. Курс стал расти сразу после опровержения новости со стороны самого Виталия.
Нет никаких доказательств того, что кто-то сознательно создал фейк для получения прибыли на разнице курсов криптовалюты. Неоспоримо лишь то, что выдуманная новость без единого подтвержденного факта оказывает мощнейшее воздействие на людей.

Имитация реальности

 

Французская певица Франсуаза Арди в видео повторят речь Келлиэнн Конуэй — советницы президента США Дональда Трампа, получившей известность после высказывания об «альтернативных фактах». Интересно здесь то, что на самом деле Арди 73 года, а в видео она выглядит как двадцатилетняя.

Ролик Alternative Face v1.1 создал немецкий художник-акционист Марио Клингеман. Он взял аудио интервью Конуэй и старые музыкальные клипы Арди. А затем применил генеративную нейронную сеть (GAN), которая сделала уникальный видеоконтент из множества кадров разных клипов певицы, а поверх наложила аудиодорожку с комментариями Конуэй.

В данном случае подделку легко распознать, но можно пойти дальше — внести изменения в файл аудио. Изображению и звуковой записи люди поверят с большей охотой, чем просто тексту. Но как подделать сам звук человеческого голоса?

GAN-системы способны изучить статистические характеристики аудиозаписи, а затем воспроизвести их в другом контексте с точностью до миллисекунды. Достаточно ввести текст, который нейросеть должна воспроизвести, и получится правдоподобное выступление.
Канадский стартап Lyrebird опубликовал свои алгоритмы, которые могут сымитировать голос любого человека на основе звукового файла длиной в одну минуту. Для демонстрации возможностей компания выложила беседу между Обамой, Трампом и Клинтон — все герои, разумеется, были фейками.

DeepMind, Институт глубокого обучения Baidu и Монреальский институт изучения алгоритмов (MILA) уже занимаются вопросами высокореалистичных алгоритмов преобразования текста в речь.

Результат пока не идеален, можно быстро отличить воссозданный голос от оригинального, но схожесть чувствуется. Кроме того, в голосе сеть меняет эмоции, добавляет злости или грусти в зависимости от ситуации.

 

Генерирование изображений

Разработчик Кристофер Гессе создал сервис, который с помощью машинного обучения может «дорисовывать» наброски, состоящие из нескольких линий, до цветных фотографий. Да, это тот самый сайт, который рисует котиков. Котики получаются так себе — трудно перепутать их с настоящими.

Программист Алекса Джоликёр-Мартино смог сделать котов, которые точь-в-точь как настоящие. Для этого он использовал DCGAN — Deep Convolutional Generative Adversarial Networks (глубокие генеративные свёрточные состязательные сети). DCGAN способны создавать уникальные фотореалистичные изображения с помощью сочетания двух глубоких нейросетей, которые состязаются друг с другом.

Первая сеть (генерирующая) получает на входе значения переменных, а на выходе выдает значения функции от этих переменных, которые должны «убедить» вторую сеть (различающую, или дискриминирующую) в том, что результаты работы первой сети неотличимы от эталона. В качестве образцов в работе Джоликера-Мартино использовалась база данных из десяти тысяч кошачьих портретов.

Использование методов DCGAN позволяет создавать фальшивые изображения, которые невозможно без другой нейросети объективно признать фейковыми.

 

Сочетания контента

 

В Университете Вашингтона разработали алгоритм, позволяющий накладывать аудио на видео выступления человека с точной синхронизацией губ. Алгоритм обучался на 17 часах видеообращений Барака Обамы. Нейронную сеть обучили имитировать движения губ Обамы таким образом, чтобы исправлять их движения, имитируя произношение нужных слов. Пока что можно генерировать только видео со словами, которые человек действительно говорил.

А теперь посмотрите на работу алгоритма, который позволяет на лету менять мимику другого человека на свою собственную мимику. На видео с Трампом (ещё есть демонстрация на Буше, Путине и Обаме) накладывают кривляния человека в студии, и получается кривляющийся Трамп. Алгоритм используется в программе Face2Face. Созданная технология похожа по принципу работы на бота Smile Vector, который на фотографиях добавляют людям улыбку.

Таким образом уже сейчас возможно создать реалистичное видео, в котором известный человек говорит выдуманные факты. Речь можно нарезать из предыдущих выступлений так, чтобы составить любое послание. Но в скором времени даже такие ухищрения окажутся лишними — любой текст сеть вложит в уста фейковому персонажу идеально точно.

Последствия

С практической точки зрения все эти технологии позволяют делать много хорошего. Например, можно улучшить качество видеоконференций, синтезируя недостающие кадры, если они выпадают из видеопотока. И даже синтезировать целые пропущенные слова, обеспечивая отличную связь в местах с любым уровнем сигнала.

Можно будет полностью «оцифровать» актёра и добавить его реалистичную копию в фильмы и игры.

 

naspravdi.info


Наши новости

Киевстар защищает конфиденциальность данных клиентов и обжалует решение АМКУ о наложении штрафа

28 ноября 2017 года

24 ноября 2017 АМКУ опубликовал информацию о принятии решения о наложении штрафа на Киевстар в размере 54 тыс за не предоставление информации.

Организация управления земельным банком компании: как обезопасить основной производственный актив

10 апреля 2017 года

Слить топливо, подменить удобрения, сэкономить семена - это так, мелочи, хотя и такое воровство наносит заметный ущерб агрокомпании. Бывают и более серьезные случаи: намеренное внесение изменений в земельные карты с целью "отхватить" часть чужой земли, юридически неправомерное оформление аренды земли, вмешательство в государственные реестры и замена владельца.

Юристы обсудят принудительный выкуп акций миноритариев

15 февраля 2017 года

16 февраля, состоится открытая дискуссия: «Законопроект № 2302а-д: экспертиза и подготовка ко второму чтению», организованная Комитетом АЮУ по корпоративному праву.

Аграрный сектор Украины как поле битвы юристов

26 сентября 2016 года

Земля, украинские черноземы, луга, небольшие земельные участки - все эти объекты в последнее время становятся местом боевых действий. Новости на аграрных сайтах действительно напоминают сводки военных времен

Конфликтные новости

Апелляционный суд подтвердил незаконность приватизации "Укртелекома"

Антикор

13 декабря 2017 года

Киевский апелляционный хозяйственный суд оставил без изменений решение суда по иску Фонда госимущества о расторжении договора купли продажи ПАО "Укртелеком".

В Минюст пришли с обыском сотрудники НАБУ

citynews

8 декабря 2017 года

Сотрудники Национального антикоррупционного бюро пришли с обыском в министерство юстиции без постановления суда.

Об этом заявила первый заместитель министра юстиции Наталья Бернацкая в Facebook.

Главред "Страны" Игорь Гужва рассказал, как СБУ запугивает журналистов

Страна.ua

6 декабря 2017 года

Главный редактор интернет-издания Страна.ua Игорь Гужва заявил, что СБУ запугивает журналистов "Страны" и фабрикует против них уголовные дела. Всего против Игоря Гужвы и "Страны" возбуждено уже 5 уголовных дел.

Суд арестовал земельные участки и автомобиль Насалика

Корреспондент

6 декабря 2017 года

Два земельных участка и автомобиль министра энергетики и угольной промышленности Игоря Насалика были арестованы. Соответствующее решение вынес Апелляционный суд Киева по ходатайству бизнесмена, президента футбольного клуба Карпаты (Львов) Петра Дыминского, передают Украинские новости.