Мошенники начали использовать голосовые возможности искусственного интеллекта

Число мошенничеств в интернете постоянно растёт, и контролировать этот процесс стало ещё сложнее с внедрением в нашу жизнь искусственного интеллекта.

Мошенники начали использовать голосовые возможности искусственного интеллекта
фото: rawpixel.com / freepik.com

Аферисты есть во всех соцсетях, они владеют «слитыми» базами телефонных номеров и представляются кем угодно: от сотрудника банка до вашего знакомого, используя различные синтезированные нейросетями голоса, сообщает Братская студия телевидения со ссылкой на киберполицию России. Попасться на их удочку очень просто, если не знать основных видов кибермошенничеств с помощью голосовых возможностей ИИ.

«Фейковый босс»

Благодаря аудиодипфейкам злоумышленники выдают себя за руководителей компаний и требуют связаться якобы с сотрудником службы безопасности, который далее убеждает жертву перевести деньги на «безопасный счёт». Но стоит помнить, что самый безопасный счёт – это ваш собственный, пока вы никому чужому не предоставили к нему доступ.

«Фейковые свидания»

Мошенники используют аудиосообщения со сгенерированным женским голосом и привлекательной аватаркой, чтобы повысить свои шансы на успех при онлайн-знакомствах. Конечно, эта уловка больше для мужчин, но сгенерировать приятный мужской голос для того, чтобы ввести в заблуждение прекрасную половину, – тоже не трудно.

«Фейковый родственник»

В органы правопорядка уже поступали заявления, когда телефонные аферисты, используя смоделированный голос, заставляли детей отдавать курьерам сбережения семьи. Вопрос в том – как злоумышленники завладевают голосами наших с вами родных и знакомых?

Новый метод мошенничества – предложение озвучить рекламу или отрывок фильма путём записи голосового сообщения. Используя полученную аудиозапись, мошенники создают новый, очень похожий на отправленный им, голос. С помощью него создают аудиосообщения и отправляют родственникам и знакомым попавшегося на уловку человека. Этот фальшивый голос также может быть использован для взятия кредита на имя жертвы, передаёт интернет-портал «Прайм».

Кроме того, мошенники могут взламывать аккаунты и использовать найденные в чатах голосовые сообщения. Эксперты отмечают, что во время разговора с сотрудником банка или родственником следует обращать внимание на детали. Если собеседник ведёт себя странно, то лучше положить трубку и самостоятельно перезвонить.

К своему голосу стоит относиться так же, как и к другим персональным данным. А любителям общаться в чатах голосовыми сообщениями стоит проверить, во всех ли аккаунтах в соцсетях установлена двухфакторная защита.


Читайте новости БСТ там, где вам удобнее всего.
Подписывайтесь на нас в соцсетях и мессенджерах. Для перехода кликните на иконку:
ВКонтакте   Одноклассники   Телеграм   Дзен

Поделиться статьей

  • 11.03.2024 18:20:11
    Тупит пока конкретно любой автосекретарь. С синтезатором голоса сложнее, но тоже возможно поймать на лжи.

Еще по теме

  • 16+
  • Яндекс.Метрика
© 2005 - 2025 ООО «Братская студия телевидения»
СМИ Информационное агентство «Братская студия телевидения»
регистрационный номер ИА № ФС 77 - 84432 от 29.12.2022
зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций