"Инсайт": технология Deepfake и опасна, и полезна

После того как группа депутатов Рийгикогу провела видеовстречу c руководителем штаба оппозиционного российского политика Алексея Навального Леонидом Волковым, который оказался ненастоящим, в Эстонии стали активно обсуждать сравнительно новую технологию - Deepfake, реалистично подменяющую лица и голоса людей.

Депутат Рийгикогу Марко Михкельсон после встречи с лже-Волковым уверенно заявил, что подмена была сделана с помощью замены изображения, и что это была операция российских спецслужб. "Мы должны очень серьезно относится к таким кибератакам и понимать, что это один из многочисленных инструментов, используемый российскими спецслужбами", - сказал Михкельсон.

Deepfake и порнография

Технология, с помощью которой можно заменить одно лицо на другое, не нова. Впервые о ней заговорили в конце 2017 года, когда пользователь форума Reddit под ником "deepfakes" опубликовал несколько порнографических роликов, в которых лица актрис были заменены на лица голливудских звезд Галь Гадот и Обри Плаза. Так началась эра Deepfake.

Глубокая подделка

Deepfake или в дословном переводе "глубокая подделка" - это реалистичная манипуляция аудио- и видеоматериалами с помощью искусственного интеллекта. С ее помощью можно не только снять непристойное видео со звездами, но и заставить любого человека говорить то, чего он не произносил и делать то, чего он никогда не совершал.

Хоть технология и позволяет довольно реалистично менять одно лицо на другое, до сих пор ее чаще всего использовали для розыгрышей. Однако, по мнению программиста и специалиста IT-индустрии Антона Кекса, использование Deepfake на политическом уровне - это страшное предупреждение всем нам.

Сначала распознавали лица, теперь подменяют

Своими корнями технология Deepfake уходит в технологию распознавания лиц, разработка которой началась 40 лет назад, а широко ее применять стали начиная со второй половины 2010 года. В 2017 году энтузиасты ради любопытства решили соединить две нейросети: распознающую и создающую лица. Так и родился Deepfake.

"Как и любой инструмент, технология Deepfake может быть использована как во благо, так и во зло. Пределом здесь служит лишь человеческая фантазия", - говорит советника отдела стратегической коммуникации правительства Эстонии Сийм Кумпас.

Спецслужбы постарались

Возможно, депутатов Эстонии, Латвии и Литвы действительно обманули спецслужбы с помощью новой технологии. Но все же категоричным в этом вопросе быть нельзя, ведь сегодня к технологии изменения лиц может получить доступ любой желающий.

"Поскольку эта технология с открытым исходным кодом, ее легко можно скачать. Причем есть возможность запустить технологию, не имея мощного оборудования, просто отсылая видеозапись в облако Google", - пояснил специалист по безопасности в Интернете Александр Тавген.

Подменить чужое лицо нелегко

На словах все выглядит просто, однако на деле все обстоит несколько иначе. "На данный момент технология еще пока находится на стадии разработки и требует достаточно больших ресурсов. В принципе, обычному человеку на своем домашнем компьютере она еще не доступна. Хотя уже есть сервисы, где можно за деньги использовать мощь большой сети компьютеров и генерировать видео изображения", - сказал Антон Кекс.

"Инсайт" попытался наложить собственное 30-секундное видео на видеоизображение бывшего премьер-министра Юри Ратаса. Нейросеть на сайте deepfakesweb за пять часов смогла весьма условно воссоздать лицо известного человека. С помощью такого видео никого обмануть нельзя. Поэтому есть большие сомнения, что во время видеосвязи депутатов и лже-Волкова применялась технология Deepfake. В том числе и потому, что нейросеть все еще не может менять лица в режиме реального времени.

По мнению Александра Тавгена, сейчас технология не достигла такого качества, чтобы в режиме реального времени обманывать большое число людей.

Сийм Кумпас так же не уверен, что  депутатов обманули с помощью нейросети. "Могло быть и то, и другое. Но этот пример иллюстрирует, что мы не обращали внимания на Deepfake в контексте видеоконференций или встреч. Опасность кроется в том, что можно создать такую реальность, когда кто-то говорит настолько убедительно, что за ним могут последовать реальные события - какие-то беспорядки или определенный выбор во время голосования, или что-то еще", - уверен Кумпас.

Смотрите на уши и бороду

В случае каких-либо сомнений надо смотреть на границы лица. "Чаще всего бывают какие-то искажения там, где начинаются волосы, борода, в районе шеи и ушей. Нейросеть реконструирует лицо, но не меняет прическу, цвет волос, форму ушей и так далее", - объяснил Антон Кекс.

Кстати, его слова подтверждает и видео, которое получилось у редактора "Инсайта". Ему удалось "примерить" лицо Юри Ратаса, но прическу и пропорции оригинала программа изменить не смогла.

Чтобы нейросеть достоверно отображала человека, она должна очень хорошо изучить его лицо, мимику, повороты головы. А для этого нужны сотни тысяч изображений оригинала.

Например, на данный момент нейросеть создала миллионы фотографий несуществующих людей, основываясь на сотнях миллионов фотографий реальных людей, размещенных в интернете. Тем не менее в этих статичных фотографиях до сих пор можно невооруженным глазом обнаружить искажения.

Возрождение умерших актеров

Кроме розыгрышей или разведки, есть у этой технологии и другое применение. Помните, Пола Уокера, уезжающего в закат в конце седьмой части франшизы "Форсаж"? К тому времени актер уже погиб в автокатастрофе, поэтому его лицо было воссоздано с помощью компьютерной графики. "В принципе, один из вариантов, где можно использовать Deepfake - возрождать, например, старых и всеми любимых", - уверен Антон Кекс.

Более того, считает Александр Тавген, в обозримом будущем нейросеть сможет самостоятельно создавать фильмы на основе адаптированных сценариев, только фильм каждый раз будет новым.

Мошенники не дремлют

Естественно, новую технологию не обошли своим вниманием и мошенники. По словам Сийма Кумпаса, два года назад в Великобритании у одной компании обманом выманили более 200 000 евро. Когда предполагаемый деловой партнер позвонил сотруднику компании и сказал, что надо быстро перевести ему определенную сумму денег - этот звонок был настолько убедительным, что аферу удалось провернуть.

"Сейчас уже многие услуги перешли в онлайн и в принципе вы очень часто вместо личного общения разговариваете по интернету с кем-то. Теперь уже гораздо меньше вероятность, что вы говорите с тем человеком, с кем вы думаете, что говорите", - описал пугающее настоящее и мрачное будущее Антон Кекс.

Но не так страшен черт, как его малюют.  Например, в случае сомнений достаточно просто позвонить собеседнику по обычной телефонной связи. Вряд ли на такой звонок смогут ответить мошенники.

Кроме такого простого способа проверки, многие страны обсуждают необходимость законодательства, защищающего людей от Deepfake, а еще программисты создают нейросети, противодействующие и обнаруживающие ложные изображения.

Редактор: Артур Тооман

Hea lugeja, näeme et kasutate vanemat brauseri versiooni või vähelevinud brauserit.

Parema ja terviklikuma kasutajakogemuse tagamiseks soovitame alla laadida uusim versioon mõnest meie toetatud brauserist: