Отправьте статью сегодня! Журнал выйдет ..., печатный экземпляр отправим ...
Опубликовать статью

Молодой учёный

Искусственный интеллект как субъект преступления и уголовно-правовые риски в сфере общественной безопасности

Юриспруденция
31.10.2022
435
Поделиться
Библиографическое описание
Гучапшева, А. Х. Искусственный интеллект как субъект преступления и уголовно-правовые риски в сфере общественной безопасности / А. Х. Гучапшева, А. М. Хамизов. — Текст : непосредственный // Молодой ученый. — 2022. — № 43 (438). — С. 72-74. — URL: https://moluch.ru/archive/438/95733/.


Современный мир не стоит на месте — наше общество неизменно претерпевает процесс эволюции, в самом центре которого находятся улучшение качества и жизни людей как основная ценность. Запрос на удовлетворение постоянно растущих человеческих потребностей порождают необходимость разработки и усовершенствования новых технологий. Согласно аналитическим данным [1], искусственный интеллект стал одним из ключевых трендов. Особенностью текущего этапа развития искусственного интеллекта является усложнение технической составляющей благодаря нейронным связями и обучению алгоритмов, вследствие чего он обретает всю большую степень автономии. Это приводит не только к появлению возможности решения множества сложнейших логических задач, но также и принятия чрезвычайно важных решений самостоятельно [2].

Отмечается, что как право в целом, так и уголовно-правовая наука в частности [3] не поспевают за стремительным изменением общественных отношений, порождаемых развитием современных технологий [4]. С одной стороны, данное положение видится совершенно логичным: не все общественные отношения должны быть детально регламентированы с точки зрения права, иначе возникает риск торможения технического прогресса вследствие излишней зарегулированности. Тем не менее, некоторые риски, и, соответственно, возможные пути их митигации следует предусмотреть заблаговременно, что отмечается даже в работах гражданско-правовой тематики [5]. В ином случае в результате такого бездействия может возникнуть перевес потенциального вреда над гипотетической пользой от развития цивилизационных благ.

Говоря об учете и смягчении криминологических рисков, следует также принимать во внимание и вероятность возникновения ситуаций, требующих нормативного регулирования именно с точки зрения уголовно-правовой сферы:

— Совершение в процессе создания системы искусственного интеллекта такой ошибки, которая в итоге привела к совершению преступления;

— Осуществление неправомерного доступа в систему искусственного интеллекта, который впоследствии повредил либо же изменил его функции, что повлекло совершение преступления

— Создание искусственного интеллекта злоумышленниками в качестве орудия совершения дальнейших преступлений

Принятие искусственным интеллектом, обладающим способностями самообучаться, таких решений, которые могут быть квалифицированы как преступные деяния [6]

В контексте Общей части уголовного права вопрос несения юридической ответственности за действия со стороны искусственного интеллекта, а также неблагоприятные последствия, вызванные такими действиями [7], видится главнейшей из проблем. Даже гипотетическая возможность привлечения в обозримом будущем искусственного интеллекта к юридической ответственности в целом и уголовно-правовой в частности приводит нас к вопросу о правосубъектности искусственного интеллекта. Без однозначного ответа на данный вопрос невозможно обеспечение надлежащего правового регулирования современных технологий представляется мало возможным, ведь положительный ответ на него означает необходимость не просто добавления в Особенную часть уголовного кодекса составов, где искусственный интеллект выступает орудием преступления [8], а уже и внесения изменений в нормы уголовного законодательства, касающихся субъективной стороны преступления [9].

Данная проблематика обусловлена следующими обстоятельствами. На данный момент единственным субъектом преступления является физическое лицо, что отражается в статьях, посвященных принципам уголовного права. Поскольку в российском праве отсутствует уголовная ответственность юридических лиц, очевидно, что в нашем законодательстве под термином «лицо» подразумевается именно лицо физическое. Таким образом, исходя из логики нашего законодателя, ответственность за действия искусственного интеллекта за неправомерные последствия должны понести его создатели или операторы.

В контексте отнесении работа к правовым категориям объекта и субъекта права, следует также затронуть и вопрос его автономности, поскольку в данной ситуации именно она и будет служить фактором разграничения этих понятий субъекта и объекта. Соответственно, при возрастании степени самостоятельности робота с некоторыми оговорками можно признать субъектом правовых отношений — то есть субъектом с ограниченной ответственность или квазисубъектом. Этот подход кажется разумным, поскольку в сфере авторского права некоторые уже готовы выделить робота в качестве субъекта. Однако здесь тоже потребуется соблюдение некоторого ряда критериев — например, способность принятий решений, которые не являются простым повторением ранее принятых решений; наличие минимальной случайности и другие.

Таким образом, мы вновь приходим к выводу о том, что на данном этапе развития общества и технологий еще рано наделять искусственный интеллект элементами правосубъектности. Тем не менее, российскому праву рано или поздно придется столкнуться с изменением правового статуса искусственного интеллекта, где в целях регулирования потребуется отойти от заданной модели. В связи с этим достаточно разумным кажется обращение к опыту зарубежных стран для дальнейшей разработки своей собственной законодательной концепции юридической ответственности искусственного интеллекта.

Литература:

  1. Gartner Identifies the Top 10 Strategic Technology Trends for 2020. [Электронный ресурс]. Режим доступа: https://www.gartner.com/en/newsroom/press-releases/2019–10–21-gartner-identifies-the-top-10-strategic-technology-trends-for-2020
  2. Ирискина Е. Н., Беляков К. О., Ананьев П. П. К вопросу о правоспособности и дееспособности электронного профайла человека. // Инновации. 2017. № 12 (230). С. 26.
  3. Денисов Н. Л. Концептуальные основы формирования международного стандарта при установлении уголовной ответственности за деяния, связанные с искусственным интеллектом // Международное уголовное право и международная юстиция. 2019. № 4. С. 18–20.
  4. Козаев Н. Ш. Состояние уголовной политики и вопросы преодоления кризисных явлений в уголовном праве // Юридический вестник Дагестанского государственного университета. 2016. № 1. С. 96–101
  5. Оленев П. А., Симанович Л. Н. Гражданско-правовая ответственность за причинение вреда роботами и иными технологиями // Экономика. Образование. Право. Научные исследования состояния и развития современного общества сборник научных трудов по материалам II Ежегодной международной научно-практической конференции. под ред. А. А. Ващенко. 2017. С. 349–353.
  6. Хисамова З. И., Бегишев И. Р. Уголовная ответственность и искусственный интеллект: теоретические и прикладные аспекты // Всероссийский криминологический журнал. 2019. № 4, с. 567
  7. [Электронный ресурс]. Режим доступа: http://moralmachine.mit.edu/
  8. Foot P. The Problem of Abortion and the Doctrine of the Double Effect in Virtues and Vices// Oxford Review. № 5. 1967
  9. Kochupillai M., Lütge, C. Programming away Human Rights and Responsibilities? A Response to 'The Moral Machines Experiment'. 2019.
Можно быстро и просто опубликовать свою научную статью в журнале «Молодой Ученый». Сразу предоставляем препринт и справку о публикации.
Опубликовать статью
Молодой учёный №43 (438) октябрь 2022 г.
Скачать часть журнала с этой статьей(стр. 72-74):
Часть 2 (стр. 67-135)
Расположение в файле:
стр. 67стр. 72-74стр. 135

Молодой учёный