За крайние пару лет глубинное обучение (Deep Learning) шагнуло далековато вперед. Некие системы машинного зрения, голосового восприятия и некие остальные работают так отлично, что даже иногда превосходят способности человека. Но там, где есть новенькая многообещающая разработка, непременно найдутся те, кто попробуют применять ее в остальных целях. Так возникли Deepfake — нейросети, которые способны поменять лицо человека на фото либо видео. Другими словами хоть какой человек сумеет сесть перед камерой, сказать что-то, а его лицо будет заменено на другого человека. А что если я скажу для вас, что уже на данный момент Deepfake может поменять не только лишь лицо, да и даже волосы, цвет кожи и фигуру?
Что умеет новейший Deepfake
Как заявил русский разраб Алексей Чаплыгин, он издержал практически два года работы, чтоб сделать Deepfake новейшего поколения. Его версия метода может поменять практически все: от кожи и цвета волос до лица и фигуры. Не считая того, нейросеть способна поменять человека на любом фото, даже если оно вначале не было загружено для обработки методом. Вот примеры того, как это смотрится.
Отлично, что разраб не стал выкладывать начальный код метода в Сеть, в неприятном случае это могло бы вызвать волну «дипфейков», где людям на фото и видео подрисовывали бы лица и черты остальных людей. Сам Алексей заявил, что планирует применять собственный метод для сотворения виртуальных примерочных, и это было бы вправду круто. Лишь представьте — загрузили вы свое фото, метод распознал его, и прямо на дисплее собственного телефона вы видите себя и примеряете новейшие кроссовки, пальто либо джинсы.
Практическая же цель моего проекта: создание виртуальной примерочной для интернет-магазинов одежки, где любой лицезреет себя, а не моделей с однотипными фигурами и схожими лицами. Разработка затачивалась конкретно для этого внедрения, но у нее много «побочных эффектов», которые разрешают создавать схожий контент, — пишет разраб.
О каких «побочных эффектах» речь идет?
Система глубинного обучения может создавать убедительную подделку (отсюда и заглавие «fake»), изучая фото и видео человека с различных сторон, а потом имитируя его поведение и эталоны речи. Опосля сотворения подделки метод делает ее наиболее правдоподобной. Нейросеть «натренирована» на выявление недочетов в подделке, что приводит к улучшениям, устраняющим расхождения с настоящим видео.
Согласно недавнешнему отчету Массачусетского технологического института, устройство, позволяющее применять дипфейки, быть может «безупречным орудием для создателей фейковых новостей, которые желают влиять на все, от цен на акции до выборов».
Если для вас увлекательны анонсы нейросетей, подпишитесь на нас в Yandex.Дзен, чтоб не пропускать новейшие материалы!
Чем небезопасен Deepfake
Можно сколько угодно гласить о том, что таковая разработка нужна, это весьма круто и не нужно наговаривать. Можно даже дойти до крайности и начать гласить о том, что это позиция свирепого олдфага, который просто опасается всего новейшего, но здесь вправду угроз больше, чем полезности. Лишь представьте, если кто-то воспользуется таковой нейросетью и «запишет» ролик с ролью Дональда Трампа, в каком он заявляет торговую войну Китаю? Пока администрация президента опровергнет это, рынок акций США просто упадет. А за ним и бакс и резервы почти всех государств.
Как распознать дипфейк? Если вы поглядите видео сначала статьи, то поймете, что пока подделку можно практически невооруженным глазом. Картина похожа, но она довольно грубая. Не считая этого, она время от времени имеет некие препядствия с совмещением, в особенности по границам лица. Но беря во внимание, что работа над методом ведется повсевременно, есть риск того, что скоро отличить фейковое видео, сделанное нейросетью, от реального будет еще труднее.
Можно представить и оборотную ситуацию, когда настоящий человек что-то произнесет, а позже будет всех уверять, что его подставили.
Как быть в данной нам ситуации тоже не весьма понятно. Это занесет такую смуту в ленты новостей, что перепроверить это в другом источнике просто не получится. В итоге станет совершенно неясно, что в этом мире правда, а что ересь.
От этого сумеет защитить метод, который уже делают YouTube и Facebook. В случае с известными людьми таковая неувязка будет решена на уровне видеосервиса, потому что этот же YouTube понимает, как двигается условный Дональд Трамп. Но когда дело дойдет до наименее известного человека, это будет труднее.
Источник: