Отправьте статью сегодня! Журнал выйдет ..., печатный экземпляр отправим ...
Опубликовать статью

Молодой учёный

Технология Deepfake как источник криминальных угроз

Научный руководитель
Юриспруденция
03.11.2025
7
Поделиться
Аннотация
В статье рассматривается технология Deepfake как новый источник криминальных угроз в современном обществе. Анализируются основные механизмы создания и распространения Deepfake-видео, а также их потенциальное использование в преступлениях. Особое внимание уделяется правовым аспектам, связанным с использованием Deepfake-технологий, включая вопросы ответственности за создание и распространение поддельного контента. Анализ по разработке законодательных инициатив, направленных на защиту граждан от возможных негативных последствий использования Deepfake. Статья подчеркивает сложность правового регулирования с технологией Deepfake.
Библиографическое описание
Кунгурова, Елизавета. Технология Deepfake как источник криминальных угроз / Елизавета Кунгурова. — Текст : непосредственный // Молодой ученый. — 2025. — № 44 (595). — С. 294-296. — URL: https://moluch.ru/archive/595/129772.


The article discusses Deepak technology as a new source of criminal threats in modern society. The main mechanisms of creation and distribution of Deepak videos, as well as their potential use in crimes, are analyzed. Special attention is paid to the legal aspects related to the use of Deepak technologies, including issues of responsibility for the creation and distribution of fake content. Analysis on the development of legislative initiatives aimed at protecting citizens from possible negative consequences of using Deepfake. The article highlights the complexity of legal regulation with Deep fire technology.

Keywords: Deepfake, criminal threats, fraud, crime, legal aspects, legal regulation, responsibility, legislative initiatives, judicial decisions.

XXI век — век технологий. Каждый год повсюду появляются тысячи новых технологий, которые не только упрощают нам жизнь, но и создают новые коллизии во многих сферах. Технологический прогресс конечно же затронул и область юриспруденции, так как неограниченное использование технологий могло бы привести к весьма печальным последствиям. Новые технологии породили множество преступлений и создали новые средства для преступников. Одним из наиболее распространенных видов преступлений в эпоху цифровизации стало мошенничество. С мошенничеством сталкивался каждый из нас: подозрительные звонки, спам ссылки и множество других махинаций. С новой технологией Deepfake мошенничество и другие преступление обрели новые краски. От чего хотелось бы разобраться с проблематикой возникновения данной технологией для юристов современников.

Стоит начать с определения, технология Deepfake, появилась на стыке нескольких научных открытий таких как, компьютерный прогресс, искусственный интеллект и обработка изображений и видеозаписей. Первые эксперименты с созданием подобных изображений и видео начали проводиться в начале 2010-х годов, когда исследователи начали использовать усовершенствованные технологии для создания реалистичных изображений.

Одним из первых значительных шагов в развитии технологии Deepfake стало использование нейросетей для создания фотореалистичных изображений лиц. Однако настоящий бум технологии Deepfake произошёл в 2017 году, когда анонимный пользователь опубликовал приложение, позволяющее заменять лица в видео на лица знаменитостей. Это вызвало широкий общественный резонанс и привлекло внимание как исследователей, так и правоохранительных органов [4].

С тех пор технология продолжила развиваться, становясь всё более доступной для широкой аудитории. В настоящее время существуют различные инструменты и программное обеспечение, позволяющее даже непрофессионалам создавать Deepfake-видео с минимальными усилиями.

Какие же новые криминальные угрозы появились после распространения технологии Deepfake.

1. Мошенничество с использованием Deepfake

Самое популярное преступление, связанное с технологиями Deepfake это мошенничество. В России использование технологий Deepfake уже получило достаточно широкое распространения. Злоумышленники могут создавать фальшивые видео, в которых они выдают себя за известных личностей, таких как звезды эстрады, актеры, но и не только, а, так же создание видео и фото с вашими родными и близкими.

Deepfake может быть использован для кражи личных данных. Мошенники могут создавать фальшивые видеозаписи, чтобы убедить жертву раскрыть свои конфиденциальные данные. Или еще одной достаточно популярной схемой мошенничества, стала рассылка видео и фото близким людям жертвы с целью незаконного получения денежных средств.

С помощью нейросети мошенники создают реалистичное видеоизображение человека. Затем сгенерированный образ рассылают его друзьям или родным через мессенджеры или социальные сети. В коротком фальшивом видеоролике виртуальный герой, голос которого иногда сложно отличить от голоса знакомого человека, рассказывает якобы о своей проблеме (болезнь, ДТП, увольнение) и просит перевести деньги на определенный счет [6].

2. Посягательства на объекты авторского права

Использование технологии конечно затрагивает и авторское право, так как медийные личности обладают исключительным правом на использование своих фотографий, внешности и их деятельность (песни, книги и так далее), которая приносит им доход. Ярким примером стало решение Арбитражного суда Москвы, он вынес прецедентное решение по делу об использовании дипфейк-технологии. Суд постановил, что компания Roistat не имела права использовать в рекламе своего мероприятия юмористический ролик с лицом Киану Ривза, выполненный в Agenda Media Group (AMG), и взыскал с Roistat 500 000 рублей [3].

3. Deepfake как средство информационных войн

Deepfake также может быть использован в политических целях для манипуляции общественным мнением:

– Дезинформация: фальшивые видео политиков могут быть созданы с целью распространения ложной информации или подрыва доверия к определенным кандидатам.

– Влияние на выборы: использование Deepfake для создания ложных заявлений кандидатов может повлиять на результаты выборов и поляризовать общество. Например, в 2018 г. большой резонанс вызвало видео с Бараком Обамой, который нелестно отзывался о 45-м президенте США Дональде Трампе. Этот дипфейк сделал режиссер Джордан Пил вместе с изданием BuzzFeed, чтобы продемонстрировать, насколько далеко шагнули технологии и почему нужно тщательно проверять источники информации и не верить своим глазам [1].

На сегодняшний день законодательство, касающееся технологий Deepfake, находится на стадии формирования. В разных странах существуют различные подходы к регулированию этой технологии, что создает определенные правовые пробелы и сложности. Рассмотрим некоторые нормативные акты о технологиях Deepfake, принятые в ряде зарубежных стран.

На данный момент в США нет единого федерального закона, который бы непосредственно регулировал технологии Deepfake. Однако различные штаты начали принимать свои собственные законы, направленные на борьбу с использованием Deepfake в мошенничестве, клевете и других преступлениях. Например, в 2018 году штат Калифорния принял закон, запрещающий использование Deepfake для создания порнографического контента без согласия участника, а также для манипуляции выборами. Законодательство направлено на защиту прав личности и предотвращение распространения ложной информации. В 2019 году в штате Техас также был принят закон, который признает противоправным использование Deepfake для причинения вреда другим лицам, включая создание ложного контента с целью клеветы или обмана.

В Европейском союзе также отсутствует единый закон, регулирующий использование технологий Deepfake. Но существуют директивы и регламенты, которые данной проблеме посвящены. Например:

  1. GDPR (Общий регламент по защите данных): GDPR, вступивший в силу в 2018 году, защищает персональные данные граждан ЕС. Использование Deepfake для обработки личных данных может нарушать положения GDPR, особенно если такие технологии используются без согласия затронутых лиц [2].
  2. Директива о защите авторских прав: Вопросы авторских прав могут возникать, когда Deepfake используется для создания контента, который нарушает права создателей оригинального материала. Это может касаться как видео, так и изображений, использованных без разрешения.
  3. Директива (ЕС) 2016/1148: Эта директива направлена на повышение уровня безопасности сетей и информационных систем в ЕС. Она может быть применима к платформам, которые используют Deepfake-технологии, если они подвергаются угрозам кибербезопасности.

В России пока нет специального законодательства по вопросу использования Deepfake. Однако в последние годы поднимались вопросы о необходимости создания правовых норм для борьбы с фальсификацией видео и защиты прав личности. Так, например, в Государственную Думу 16 сентября 2024 года был внесен законопроект № 718538–8, связанный с внесением изменений в Уголовный кодекс РФ. Законопроект предполагает изменения в статьях 128 1 часть 2 1 , в пункте «д» части 3 статьи 158, статьи 159 часть 2 1 , а также дополнениям подвергнуться статьи 159.6, 163, 165.

Какие же изменения данный законопроект принесет в уголовный кодекс.

– Статья 128.1 (Клевета): Создание и распространение Deepfake-контента с ложной информацией о человеке, то есть данный фактор станет дополнительным признаком в объективной стороне, помоет более детально классифицировать преступление, совершенное различными способами.

– Статья 137 (Нарушение неприкосновенности частной жизни): Использование технологий Deepfake для создания компрометирующего контента без согласия лица может нарушать его право на частную жизнь. Уточнения в данной статье поможет не только наказать преступника, но и доказать свою невиновность со стороны пострадавшего. Простым языком отбелить репутацию, доказав, что это была фальсификация.

– Статья 159 (Мошенничество): Использование Deepfake для обмана людей с целью получения материальной выгоды может быть квалифицировано как мошенничество. Мошенничество и вправду обрело множество форм, от того следует четко разграничивать его объективную и субъективную сторону. Ведь несмотря на большое разнообразие способ совершения мошенничества, использование данных технологий преступники явно преследуют определенную цель и мотив, используя именно такой способ совершения преступления. Ко всему для хорошей подделки требуется хорошее оборудование в виде Персонального компьютера или других технических средств, например: специальные программные обеспечения для монтажа видео, обработки голоса и другое. Так что дополнение статьи квалифицирующей информацией, позволит наказывать преступника соразмерно его преступлению и его подготовки.

Технология Deepfake представляет собой мощный инструмент, который может быть использован как во благо, так и во вред. Последнее обстоятельство вызывает повышенные опасения в связи с применением этой технологии именно в преступных целях.

Deepfake-технологии могут быть использованы для создания поддельного контента, что открывает широкие возможности для злоупотреблений. Криминальные угрозы, связанные с использованием Deepfake, включают клевету, шантаж, мошенничество и нарушение неприкосновенности частной жизни. Такие технологии могут подрывать доверие к информации, способствовать распространению дезинформации и разжиганию социальных конфликтов.

В условиях быстрого развития этих технологий необходимо разработать эффективные правовые механизмы для их регулирования и защиты прав граждан. Образование и информирование общества о рисках, связанных с Deepfake, также играют ключевую роль в предотвращении потенциальных злоупотреблений. Важно, чтобы правоохранительные органы и законодатели активно работали над созданием нормативной базы, способной адекватно реагировать на вызовы, которые несут с собой технологии Deepfake, тем самым минимизируя их негативное влияние на общество. Технологии помогают нам, но стоит не забывать об обратной стороне. Тем самым мировое сообщество должно уметь правильно справляться с возникающими проблемами в сфере цифровизации на законотворческом и правоприменительном уровне.

Литература:

  1. Данилова, В. А. Правовые аспекты регулирования «Deepfake» технологии в России / В. А. Данилова, Д. М. Левкин // Право и государство: теория и практика. — 2022. — № 7(211). — С. 88–91. — DOI 10.47643/1815–133720227_88. — EDN EUVFQP.
  2. Европейский договор «General Data Protection Regulation, GDPR; Постановление 2016/679) — постановление Европейского союз» от 27 апреля 2016 // https://gdpr-info.eu/art-1-gdpr/. — 2016 г. — с изм. и допол. в ред. от 25 мая 2018.
  3. Владислав Куликов Суд по интеллектуальным правам защитил авторские права на ролики с дипфейками // Российская газета. — 08.11.2024.
  4. Ефремова, М. А., Русскевич, Е. А. Дипфейк (deepfake) и уголовный закон // Вестник Казанского юридического института МВД России. 2024. Т. 15. № 2 (56). С. 97–105. DOI: 10.37973/VESTNIKKUI-2024–56–13.
  5. Масликова, Я. А. Дипфейки как угроза персональным данным / Я. А. Масликова // Грядущим поколениям завещаем: творить добро в защиту права: Материалы всероссийской научно-практической конференции с международным участием, Оренбург, 29 марта 2021 года. — Ногинск: АНАЛИТИКА РОДИС, 2021. — С. 396–400. — EDN FHUXMS.
  6. Мошенники обманывают людей с помощью дипфейков // Банк России URL: https://www.cbr.ru/information_security/pmp/15082024/ (дата обращения: 01.12.2024).
  7. Цифровой обман: какие права нарушают дипфейки и как за это можно наказать // Право URL: https://pravo.ru/story/249733/ (дата обращения: 08.11.2024).
Можно быстро и просто опубликовать свою научную статью в журнале «Молодой Ученый». Сразу предоставляем препринт и справку о публикации.
Опубликовать статью
Молодой учёный №44 (595) октябрь 2025 г.
Скачать часть журнала с этой статьей(стр. 294-296):
Часть 5 (стр. 285-351)
Расположение в файле:
стр. 285стр. 294-296стр. 351

Молодой учёный