Рекламный баннер

Созданный нейросетями контент будут маркировать

Компания OpenAI (ОпенЭйАй), один из крупнейших игроков на рынке искусственного интеллекта и нейросетей, заявила, что начала маркировать все изображения, создаваемые в ChatGPT (ЧатДжиПиТи) и его программных интерфейсах. Корпорация Meta (Мета) (признана экстремистской, запрещённая в России) также объявила, что будет маркировать изображения, созданные ИИ, которые публикуются в социальных сетях компании. Эксперты отмечают, что Россия также нуждается в регулировании рынка контента, созданного при помощи алгоритмов.

Созданный нейросетями контент будут маркировать
фото: freepik / freepik.com
Рекламный баннер

Количество фейков в российском сегменте интернета постоянно растёт. В 2023 году было зарегистрировано 4 тысячи фейков, созданных нейросетью, и 12 миллионов случаев их распространения. Эксперты прогнозируют увеличение числа фейков до 15 миллионов с учётом копий в 2024 году, сообщает ИА «БСТ» со ссылкой на «Российскую газету».

Премьер-министр России Михаил Мишустин поручил Минцифры провести анализ для выявления недостоверных данных, включая контент, созданный с применением ИИ. Выполнить поручение должны к 19 марта текущего года.

Эксперты выделяют ряд проблем, связанных с несанкционированным использованием искусственного интеллекта для создания контента: нарушение авторских прав; генерация вымышленного контента в ситуациях, требующих фактажа; а также злоупотребление дипфейками в целях мошенничества.

«Как адвокат, занимающийся вопросами, связанными с ИИ, я слежу за развитием судебной практики, и серьёзное беспокойство вызывают случаи, когда, например, даже опытные, именитые зарубежные адвокаты используют ИИ при подготовке к суду, а ИИ просто выдумывает судебные прецеденты, на которых основывается позиция по делу. Такая ситуация случилась с адвокатами Стивеном Шварцем и Питером Лодуком, и хорошо, что судья заметил вымышленные кейсы, ведь это не только разрушает деловую репутацию конкретных адвокатов, но и может стать причиной ошибочного решения, что совершенно недопустимо», – говорит адвокат, член адвокатской палаты Москвы Наталья Вашеняк.

«Проблем уже сейчас достаточно много. Могу сказать, что с такими вопиющими случаями нарушения авторских прав мы не сталкивались никогда. Крайне интересно, по какому пути пойдёт законодательство в этой сфере, надеюсь, что в скором времени всё-таки примут новую редакцию статьи о результатах интеллектуальной деятельности, созданных с использованием искусственного интеллекта», – отмечает ИТ-юрист София Залуцкая.

Юристы полагают, что регулирование дипфейков требует установления жёстких норм, подобных тем, которые приняты законодателями Китая – там использование контента ИИ сильно ограничено.

Дипфейки и контент, созданный генеративными нейросетями, это две разные вещи. Однако развитие ИИ приводит к регулярным случаям использования созданного нейросетями графического и аудио-контента, базирующегося на образах и голосах знаменитостей и политиков, в целях кибермошенничества. Здесь же встаёт вопрос о том, что всё это производится без согласия реального владельца персональных данных.

Член комитета Госдумы по информполитике Антон Немкин сказал, что закон о маркировке контента, созданного при помощи искусственного интеллекта, сегодня уже прорабатывается на законодательном уровне.

Но для этого необходимо также закрепить определение терминов «нейросеть», «дипфейк» и «искусственный интеллект», учитывая быстрое распространение технологии. В настоящее время термин «искусственный интеллект» упоминается всего в двух ФЗ.

Наиболее компромиссным путём, полагают эксперты, действительно может стать маркировка такого контента.

«Учитывая тот факт, что наша страна выбирает стратегию не «остановить» развитие ИИ, а возглавить этот процесс и занять лидирующие позиции в мире, регулирование в этом вопросе должно вводиться обязательно, но крайне обдуманно и аккуратно», – полагает депутат Антон Немкин.

Если не контролировать ситуацию, это может привести и уже приводит к негативным последствиям. Например, дипфейки могут использоваться в политических целях, как случилось в прошлом году, когда несколько телеканалов и радиостанций показали «обращение» президента России, созданное с использованием технологии дипфейк.

ИИ открывает широкие возможности для мошенничества. Недавно стала популярной схема, в рамках которой злоумышленники взламывали аккаунты в Телеграм и отправляли сообщения с запросами занять денег. Перед фальшивыми голосовыми сообщениями большинство пользователей вообще окажутся беззащитными.

При этом в России уже есть система «Зефир», разработанная АНО «Диалог Регионы», которая позволяет выявить материалы, созданные с помощью ИИ, включая дипфейки. Эта система используется для верификации аудиовизуального контента, транскрибирования, перевода речи и поиска копий файлов.

В 2023 году этой системой было обработано более 3,5 тысячи единиц медиаконтента, из которых около тысячи роликов оказались сгенерированными с помощью ИИ. Также в автоматическом режиме было проверено около 2 миллионов видео- и аудиозаписей. Система способна обнаруживать хромакей, следы обработки аудиоконтента, находить копии и первоисточники видеоматериалов, а также отслеживать известных персон в видеороликах.

Важно контролировать технологию дипфейков, не останавливая её развитие, учитывая её потенциальное использование не только в мошеннических, но и в творческих целях. За последние три года технология существенно продвинулась: от шуточных видео до реального инструмента. Хотя качество требует улучшений, технология активно развивается.

«Десять лет назад в Голливуде было около 5 % компьютерной графики, сейчас уже более 30 %, по разным подсчётам. А искусственный интеллект плюс компьютерная графика равно новые синтетические актёры, которые работают 24/7 и бесплатно. Вместо того чтобы платить гонорар по 100 миллионов долларов в год, можно сгенерировать самого популярного артиста. Думаю, что в ближайшие 2-3 года мы увидим полностью искусственных персонажей, которые станут главными героями контента – художественного, развлекательного, музыкального – и в России», – отмечает глава Института развития интернета Алексей Гореславский.

Вероника Архипова
Автор

Читайте новости БСТ там, где вам удобнее всего.
Подписывайтесь на нас в соцсетях и мессенджерах. Для перехода кликните на иконку:
ВКонтакте   Одноклассники   Телеграм   Дзен

Рекламный баннер

Поделиться статьей

Еще по теме

  • 16+
  • Яндекс.Метрика
© 2005 - 2024 ООО «Братская студия телевидения»
СМИ Информационное агентство «Братская студия телевидения»
регистрационный номер ИА № ФС 77 - 84432 от 29.12.2022
зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций