Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Search in posts
Search in pages
Слушать подкаст
|
КиноРепортер > Кино > Дипфейки: За и против

Дипфейки: За и против

11 февраля 2023 /
Дипфейки: За и против

Рассказываем, как менялось отношение к искуственному интеллекту и сгенерированным им изображениям.

Наступил 2023 год, и на производстве действительно вкалывают роботы, а не человек. Огромным прорывом в этой области стали дипфейки – синтезированные изображения, созданные при помощи искусственного интеллекта на основе оригинальных фото- или видеоматериалов. За последние несколько лет отношение к ним не раз кардинально менялось. Использование «фальшивых лиц» давно шагнуло в прикладную плоскость, хотя начиналось все как безобидная шутка. 

Технологический прорыв

В марте 2021-го в TikTok появился лже-Том Круз, который показывал фокусы с монетками и шутил на камеру. Выглядело это настолько реалистично, что многие поверили, будто актер действительно зарегистрировался в популярной сети – в конце концов, чего не сделаешь ради продвижения нового фильма? Подлог в результате вскрылся: копия голливудской звезды выглядела слишком молодо, да и ростом оказалась выше оригинала. Но количество просмотров продолжало расти, и в итоге видео спровоцировало публичную дискуссию между политиками, общественными деятелями и юристами.

К тому моменту видео с «Томом Крузом» было одним из самых качественных дипфейков. Несмотря на то, что технология появилась еще в 2017 году, на совершенствование алгоритмов уходило немало времени. Зато множились разнообразные боты и программы.

В 2020 году специалист по компьютерной безопасности Филип Талли создал цифровую копию Тома Хэнкса. У изображения имелись недостатки – например, не слишком естественная текстура кожи. Но в миниатюре кадры легко можно было принять за настоящие, да и эксперимент обошелся Талли всего в $100. Деньги он потратил на программное обеспечение с открытым исходным кодом, куда загрузил несколько сотен фотографий актера. Голос Хэнкса он синтезировал на собственном ноутбуке за считанные минуты: потребовались три звуковые дорожки по 30 секунд каждая. 

Кроме того, в том же 2020-м британский телеканал Channel 4 выпустил альтернативное обращение королевы Елизаветы II – и навлек на себя гнев тысяч зрителей. 

В технологическую гонку включился и Facebook (принадлежит экстремистской организации Meta, запрещенной в России): руководство соцсети предложило $500 тыс за разработку ИИ-детектора, способного распознавать дипфейки. Победитель справлялся с этой задачей только в 65% случаев. 

Этика и закон 

К сегодняшнему дню мысль «дипфейки угроза правам человека» сформировалась окончательно: пока некоторые развлекаются, подставляя собственные лица в кадры из супергеройских блокбастеров, кто-то намеренно нарушает закон. И речь не только о «бизнесе по дезинформации» – куда большей проблемой стало появление дипфейк-порно. Огромное количество анонимных сайтов зарабатывают деньги, предлагая юзерам воплотить свои фантазии и получить готовый ролик.

При этом одни используют лица бывших партнеров в качестве мести за расставание или расправляются с оппонентами, публично их унижая. А другие предпочитают загружать изображения известных актрис: среди официальных жертв – Скарлетт Йоханссон, Натали Портман, Эмма Уотсон и индийская актриса Анушка Шетти.

Платформы удаляют ролики, если изображенный там человек обратится с такой просьбой, но о дополнительной модерации подобного контента речи не идет. К тому же видео приносят деньги: сфальсифицированный ролик со звездой «Гарри Поттера» на четырех популярных порносайтах посмотрели более 35 млн раз. При этом законодатели разных стран не могут понять, как справиться с этой проблемой. Юристы открыто заявляют, что мир не был готов к появлению порнографии, созданной искусственным интеллектом.

Стран, где есть защитные механизмы, совсем немного. За дипфейк-порно можно получить срок в Шотландии – просто потому, что в законе о распространении интимных фото и видео без согласия прописана фраза «любое изображение, даже измененное». Виновнику грозят тюремный срок до 5 лет и штраф в неограниченном размере. В Англии и Уэльсе подобный закон рекомендован юридической комиссией, но пока не принят. А вот в штате Флорида, США такое поведение расценивается как киберпреступление: в качестве компенсации жертва может потребовать от обидчика до $10 тыс.

Кроме того, американские граждане могут ограничивать несанкционированное присвоение их личности (в том числе в коммерческих целях), но эти законы варьируются от штата к штату – общего знаменателя у них нет. 

А вот в России можно выиграть суд, если сослаться на закон об авторском праве: предметом разбирательства должно стать произведение, на основе которого сделан дипфейк. В таком случае сгенерированное изображение подпадает под пункт о нелегальной переработке. 

Но дальше всех в юридическом плане пошли китайцы – в стране приняли закон, в соответствии с которым запрещено создание любых дипфейков, если изображенный на них человек не дал своего согласия. Также регулируется сам оборот цифровых изображений: нельзя создавать и распространять дипфейки в случаях, когда применение технологии является угрозой национальной безопасности, нарушает общественный порядок, посягает на права и интересы граждан или несет в себе ложную информацию. Кроме того, сгенерированные нейросетью изображения, разрешенные законом, должны быть промаркированы. 

Использование дипфейков в развлекательных целях никак не регулируется юридически, а потому вызывает беспокойство у представителей многих профессий. Скандалом обернулось появление Брюса Уиллиса в российской рекламе. Сначала появилась информация, что он продал отечественной компании права на свое изображение, однако впоследствии агент Крепкого орешка эти слова опроверг. Затем выяснилось, что российская компания заключила сделку, согласно которой может использовать цифровую копию актера.

Но на передовицах уже возник вопрос: кому же принадлежит Брюс Уиллис? Вскоре стало ясно, что судебное разбирательство возможно только в том случае, если дипфейк «усугублен» какой-нибудь дополнительной проблемой. Речь идет, скажем, о том же ролике непотребного характера, клевете, попытке совершить мошенничество или политической агитации. Тогда пострадавшая сторона вправе рассчитывать на расследование в гражданском или уголовном поле.

Некоммерческое использование

Прошлой осенью в России при поддержке Института развития интернета вышел дипфейк веб-сериал под названием «ПМЖейсон». Ситком рассказывает о том, как Джейсон Стэйтем после пятилетних съемок в стране остается жить в провинции, а на 60-летие к нему приезжают друзья – Киану Ривз, Марго Робби и Роберт Паттинсон. Всего отсняли 10 эпизодов по 5 минут – в них Стэйтем влюбляется в кухарку, воюет с медведем и спасает отряд МЧС.

Никаких контрактов подписано не было, однако создатели подчеркнули, что использование образов голливудских звезд в пародийных целях не нарушает авторских прав. Кроме того, проект остается в рамках закона, поскольку не порочит честь, достоинство и деловую репутацию актеров. Модерацию на YouTube ролики тоже прошли без особых проблем. 

А в начале 2023-го британский стриминг ITVX выпустил стилизованный под реалити-шоу сериал Deep Fake Neighbour Wars. Он рассказывает об обычных жителях южного Лондона, вот только в качестве доставщика выступает Идрис Эльба, Ким Кардашьян водит автобус, а мама-одиночка Грета Тунберг воюет с соседями – флористом Конором МакГрегором и строительницей Арианой Гранде. В рецензиях шоу называют прорывом, которое «не стремится никого обмануть», а также активно применяют термин «мокьюментари» (псевдодокументалистика), что в целом истине не соответствует. 

дипфейк

В музыкальных проектах тоже активно применяются дипфейки: Кендрик Ламар и Канье Уэст выпустили клипы, в которых использовался искусственный интеллект. А в 2020-м один из участников America’s Got Talent с помощью камеры «превратился» в сидящего неподалеку от него судью конкурса, чем шокировал всех присутствующих в зале. Но шалость в итоге удалась: публика пришла в восторг. Несколько месяцев спустя на том же шоу благодаря технологии Metaphysic «воскресили» Элвиса Пресли, и на это немедленно обратили внимание голливудское агентство талантов CAA и студия Miramax. 

Неуверенный шаг в будущее

Точно можно сказать одно: дипфейки только набирают силу, и различный креатив будет валиться на зрителей все чаще. Тем более что ИИ ощутимо облегчает работу многих людей и даже целых отделов. Например, специалистов по визуальным эффектам: если в «Социальной сети» Дэвида Финчера актера Джоша Пенса, сыгравшего одного из близнецов Уинклвосс, снимали с датчиками захвата движения, а на этапе пост-продакшена приставляли ему голову Арми Хаммера, то сегодня процесс замены проходил бы гораздо быстрее.

Сюда же входит возможность «оживления». Раньше в таких случаях использовался цифровой грим, а на лицо актера наносились особые точки, на которые затем накладывалась или рисовалась с нуля определенная модель. Теперь на помощь пришли дипфейки. В прошлом году Первый канал «воскресил» Владислава Галкина, и его 8-минутное появление в «Диверсанте» разделило публику на два лагеря. Примерно то же произошло, когда на экранах телевизоров неожиданно возник Жорж Милославский.

Добавим, что посмертное использование цифровых копий не регулируется никакими юридическими нормами. Более-менее приближенный к этой теме закон приняли в Нью-Йорке, причем недавно, в 2020-м. Он затрагивает право на публичность, у которого в местном законодательстве есть свои нюансы и трактовки. Открыт и вопрос защиты персональных данных: голос остается вполне себе биометрическим параметром, который можно использовать в не самых благих целях.

Если возвращаться к плюсам, то с помощью ИИ отлично решаются и логистические проблемы: пандемия для многих киношников могла пройти спокойнее. Наконец технологию можно использовать в рамках нынешней культуры отмены. Решение спорное с моральной точки зрения, но безусловно выгодное с экономической. Если бы Ридли Скотт воспользовался этой идеей, а не спешно переснимал сцены «Всех денег мира» с обвиненным в неподобающем поведении Кевином Спейси, то сэкономил бы $10 млн.

С другой стороны, нейросети могут выступать и как инструмент цензуры, что тоже требует введения правового регламента. В конце концов, не может же каждый менять готовое произведение под свой вкус? Подобные вопросы все еще находятся в серой зоне. 

Но пока одни опасаются, что их личности украдут или будут десятилетиями эксплуатировать за копейки (в некоторых голливудских контрактах уже появляется пункт про использование «права на симуляцию изображений и голосов»), другие пытаются не только приноровиться к меняющейся реальности, но и заработать.

Волшебное зеркало

Так, продюсеры используют альтернативный способ омоложения звезд как главную фишку. Такими в свое время были 3D и система ароматизации фильмов. В новом «Индиане Джонсе» Харрисон Форд предстанет перед зрителем сильно помолодевшим. Как признался сам актер, наблюдать себя в таком виде ему было жутковато. И добавил, что «не хочет знать, как это работает, но это работает»

А грядущая лента известного любителя технологий Роберта Земекиса и вовсе положила начало разработке новых инструментов ИИ для кино, телевидения и других сфер развлечений. В картине «Здесь», основанной на графическом романе Ричарда МакГуайра, омолодят коллег по «Форресту Гампу» Тома Хэнкса и Робин Райт, но сделают это по-особенному.

«Наш сложный и эмоциональный фильм просто не сработает, если актеры не будут превращаться в более молодые версии самих себя», – заявил Земекис. 

Волшебство сотворят с помощью Metaphysic – эту технологию уже прозвали «зеркалом молодости». Ее главное отличие от аналогов в том, что дипфейк генерируется в режиме реального времени и накладывается поверх изображения актера. Таким образом потоковая передача идет со скоростью до 30 кадров в секунду, и никакого постпродакшена просто не требуется. 

Но у дипфейков есть и другой путь: некоторые эксперты считают, что разработчики могут обучить машинные алгоритмы воспроизводить определенные манеры и голос того или иного артиста, не взаимодействуя с его биометрическими параметрами. Какой именно вариант окажется предпочтительнее – нам только предстоит узнать.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Комментарии  

Комментарии

Загрузка....
Вы все прочитали

Next page

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: