5 новогодних подарков, которые понравятся детям (и не только им)
Помните, как в детстве мы с нетерпением ждали наступления Нового года, а потом спешили к елке, чтобы распаковать подарки? Мы...
Дипфейки — это синтез ИИ и аудио- или видеоизображений: специальный алгоритм объединяет несколько фото, на которых человек изображен с разным выражением лица, и делает из них видео. При этом ИИ анализирует большое количество снимков и учится тому, как может выглядеть и двигаться конкретный человек.
В сентябре 2019 года компания Deeptrace, занимающаяся искусственным интеллектом, обнаружила в Интернете 15 тыс. дипфейков — что почти вдвое больше, чем за девять месяцев того же года, 96% видео были порнографическими и в 99% из них использовались лица женщин-знаменитостей.
Сама технология дипфейка появилась в 2017 году, когда пользователь сайта Reddit с одноименным названием загрузил порноклип на сайт, заменив лица актеров на лица знаменитостей — Галь Гадот, Тэйлор Свифт, Скарлетт Йоханссон.
В 2018 году режиссер Джордан Пил и его зять, генеральный директор BuzzFeed, Джона Перетти создали дипфейк видео, в котором Барак Обама назвал Трампа «полным и абсолютным дураком».
фото: BBC
В 2020 году в Южной Корее во время трансляции новостей в прямом эфире вместо постоянной ведущей Ким Чжу Ха появилась компьютерная версия девушки, которая в точности повторяла ее голос, жесты и даже мимику.
фото: BBC
Компания MBN заявила, что продолжит использовать технологию дипфейк для выхода в эфир, в то время как компания Moneybrain, занимающаяся ИИ, отметила, что намерена искать других покупателей среди СМИ в Китае и США.
Технологию дипфейк также можно увидеть и в развлекательных видеороликах. Так, недавнее видео «Тома Круза», только появившись в TikTok, попало в тренды. Как выяснилось позже, актер к нему не имел никакого отношения.
фото: BBC
Жительница Южной Кореи смогла вновь увидеть умершую дочь с помощью технологии виртуальной реальности: разработчики создали цифровую копию девочки, с которой ее мать смогла пообщаться, надев VR-шлем и тактильные перчатки. Инженеры использовали реальные фото и видео покойной Найон, а также аудиозаписи ее голоса, чтобы воспроизвести их в виртуальной реальности.
Технология дипфейков позволяет не только работать с видео, но и дает возможность трансформировать изображения и голоса людей. Она позволяет создавать правдоподобные фотографии. С ее помощью можно искусственно омолодить или состарить актеров или других известных личностей или доснять фильм с изображением внезапно умершего или переставшего участвовать в съемках актера.
фото: The Guardian
Некая «Мэйзи Кинсли», представлявшаяся журналисткой Bloomberg, завела страницу LinkedIn, где связывалась с работниками Tesla и просила предоставить их личные данные, чтобы использовать их в своих целях. Замысел девушки с полностью фейковой страницей и фотографией вскоре был раскрыт: ни материалов, подтверждающих ее причастность к медиа, ни другой информации о ней так и не нашли.
фото: Fastcompany
Также технология дипфейк используется в процессе создания «голосовых скинов» или «голосовых клонов». В марте 2018 года глава британского филиала немецкой энергетической компании внес почти 200 тыс. фунтов стерлингов на счет в венгерском банке после того, как ему позвонил мошенник, имитирующий голос генерального директора компании. Однако доказательств того, что запись была искусственно сфабрикована, до сих пор нет.
Сделать хороший дипфейк на обычном компьютере сложно: для этого потребуется высокопроизводительная машина, которая способна сократить время обработки файлов до нескольких часов.
Для того, чтобы работать с готовыми видеороликами, добавлять необходимые визуальные дефекты, также требуется опыт работы в сложных графических редакторах. Например, программы Reflect, Doublicat или Morhine позволяют работать в реальном времени со статичным форматами. Недавно китайские разработчики запустили приложение Zao, которое встраивает лица пользователей в известные фильмы.
фото: The Guardian
На начальном этапе потребуется до тысячи снимков лиц двух людей, на которых запечатлены разная мимика, позиции лицевых мышц. ИИ — кодировщик использует полученную информацию. Он находит и изучает сходства двух лиц, а затем сводит всё к общим чертам, сжимая изображения в процессе.
Затем второй алгоритм ИИ, называемый декодером, восстанавливает лица из сжатых изображений. Поскольку лица разные, один декодер понадобится для восстановления лица первого человека, а другой декодер — для второго.
фото: The Guardian
Чтобы заменить лицо, нужно загрузить закодированные изображения в «неправильный» декодер. Например, сжатое изображение лица человека A загружается в декодер, предназначенный для человека B. Затем декодер восстанавливает лицо человека B с учетом выражений и мимики лица человека A.
Майк Прайс, технический директор ZeroFox, американской компании по кибербезопасности, которая отслеживает дипфейки, говорит, что их коммерческое использование «значительно растет из года в год, но точные цифры трудно определить».
Профессор Сандра Вахтер, старший научный сотрудник в области искусственного интеллекта в Оксфордском университете, говорит, что технология развивается: «Если вы смотрели видео Тома Круза, то можете оценить, насколько хороши технологии. Это было намного реалистично, чем видео с «Обамой»».
«Мы не должны слишком бояться технологий. Такие видеоролики стоит регулировать на законном уровне. У нас не должно быть прямого запрета на дипфейки для сатиры или свободы слова. Технологии можно использовать для перевода фильмов на разные языки или создания увлекательных обучающих видеороликов», — говорит Сандра.
Одним из примеров использования дипфейков в образовательных целях является видео Фонда Шоа Университета Южной Калифорнии, в котором представлено более 55 тыс. видеосвидетельств людей, переживших Холокост.
фото:BBC
Основатель фонда — господин Стилберг — говорит, что в будущем такая технология позволит внукам разговаривать с ИИ-версиями умерших пожилых родственников. «Это меняет правила игры нашего общества», — говорит он.
Получай актуальные подборки новостей, узнавай о самом интересном в Steppe (без спама, обещаем 😉)
(без спама, обещаем 😉)