Видеозвонок «Путина» самому себе и возможность создать видеокопию почти любого человека – малая часть возможностей дипфейков.
Мошенники всё чаще используют технологии дипфейков, создавая реалистичные изображения людей с помощью искусственного интеллекта. Для этого они зачастую взламывают аккаунты россиян в социальных сетях и мессенджерах, получая доступ к фото, видео и голосовым записям. Отличить такие подделки от настоящих сложно, но существуют правила, которые помогут распознать мошенников, сообщает ИА «БСТ» со ссылкой на «Российскую газету».
«Сгенерированный образ человека рассылают его друзьям или родным через мессенджеры или социальные сети. В коротком фальшивом видеоролике виртуальный клон реального человека рассказывает якобы о своей проблеме (болезнь, ДТП, увольнение) и просит перевести деньги на определённый счёт. В некоторых случаях мошенники создают дипфейки работодателей, сотрудников государственных органов или известных личностей из той сферы деятельности, в которой трудится их потенциальная жертва», – сообщили в Центробанке РФ.
В таких случаях не спешите с переводом денег. В ответ на просьбу о финансовой помощи лучше перезвонить знакомому и уточнить детали. Необходимо избегать текстовых сообщений, так как мошенники могут создавать поддельные страницы с именем и фотографией человека для рассылки своих запросов.
Если нет возможности позвонить, задайте в сообщении личный вопрос, на который знает ответ только ваш знакомый. Также обратите внимание на видеосообщение: проверьте его на наличие монотонной речи, неестественной мимики и дефектов звука – это может быть признаком дипфейка.
«Можно постараться рассмотреть, как выстраивается картинка по краям лица: меняется ли она, есть ли на записи какие-то сдвиги, блики, неестественные перепады контраста и яркости. Ещё один интересный способ „вычислить“ дипфейк – обратить внимание на блики на глазах и зубы. В большинстве случаев у людей во время разговора зубы видны, а на дипфейках – далеко не всегда. Такие подсказки сложно заметить, если качество записи плохое, в том числе из-за этого дипфейк-видео часто публикуются в искусственно заниженном разрешении», – пояснил директор лаборатории FusionBrain («Фьюжн Брейн») научно-исследовательского Института искусственного интеллекта AIRI Андрей Кузнецов.
Но заметные невооружённым взглядом огрехи изображения будут исчезать по мере развития технологий.
«Сейчас дипфейк можно вычислить по таким признакам, как чрезмерно плавные движения, дрожание и прочие аномалии. Однако есть опасения, что по мере совершенствования технологий такие признаки будут постепенно исчезать. Уже сейчас, если происходит подмена только лица, то человек без глубокого анализа светотени и других особенностей с большим трудом сможет этот дипфейк обнаружить и распознать», – предупреждает генеральный директор Smart Engines («Смарт Энджайнс»), доктор технических наук Владимир Арлазаров.
Аудиозаписи мошенников стали настолько качественными, что неподготовленным людям сложно их отличить, считают эксперты. Если получили аудиосообщение с просьбой перевести деньги, обязательно вступите в диалог и задавайте вопросы, на которые знает ответы только этот человек. Лучше всего связаться с ним напрямую, например, позвонить. Однако даже видеосвязь в реальном времени не даёт 100 % гарантии защиты от подделок.
«Существуют технологии, которые позволяют генерировать видеодипфейки в реальном времени. Однако для подключения такой технологии к видеоконференцсвязи, мошенникам всё равно нужно предварительно найти ролик с лицом человека, которым они хотят представиться. С помощью такого ролика создаются „маски“, которые накладывают на фигуру в кадре», – рассказал Андрей Кузнецов.
В декабре 2023 года в России был продемонстрирован впечатляющий пример такого дипфейка: студент СПбГУ записал видеообращение к президенту Владимиру Путину, используя его изображение и голос, причём подделка выглядела весьма реалистично. Это стало возможным благодаря большому количеству видеозаписей с Путиным в интернете.
Чем больше фотографий и видеозаписей человек размещает в соцсетях, тем проще злоумышленникам создать качественный дипфейк. Владимир Арлазаров отмечает, что существуют программы автопарсинга, которые скачивают изображения из соцсетей и позволяют нейросетям воспроизводить внешний вид человека с высокой детализацией.
Для защиты можно либо уменьшить публичную активность, либо повысить бдительность. Увы, надежда на эффективные технические средства защиты пока не оправдывается, так как алгоритмы распознавания дипфейков ещё не стали доступными для обычных пользователей.
«Чем больше данных о человеке есть в свободном доступе – тем легче его „сымитировать“. Если профессия обязывает регулярно появляется в публичном поле, то главная надежда – это хорошие способы распознавания и правильная законодательная база. Например, в Евросоюзе любое изображение, созданное с использованием искусственного интеллекта, должно быть соответственным образом помечено», – добавил Арлазаров.
Но и обычные люди уже раскрыли достаточно информации о себе, чтобы создать дипфейки для подавляющего большинства. Однако мошенники не проявляют интереса к этим данным, пока не получат доступ к биометрии, деньгам или другим ценностям. Поэтому эксперт советует относиться к использованию биометрии с осторожностью.
«Мошенников привлекают попытки повсеместного использования биометрических технологий, причём даже там, где это не всегда оправдано. И эту тревожную тенденцию стали замечать крупнейшие производители. Например, Microsoft («Майкрософт») на днях анонсировал технологию небиометрической сверки лиц, аналогичную нашей, где верификация по лицу происходит с использованием удостоверяющих личность документов. К тому же склоняются и ведущие банки. Желая предотвратить инциденты с дипфейками, рынок будет двигаться от биометрической идентификации в сторону верификации по документу», – спрогнозировал он.
Читайте новости БСТ там, где вам удобнее всего.
Подписывайтесь на нас в соцсетях и мессенджерах. Для перехода кликните на иконку:
Комментарии