Отправьте статью сегодня! Журнал выйдет ..., печатный экземпляр отправим ...
Опубликовать статью

Молодой учёный

Искусственный интеллект как субъект преступления

Юриспруденция
05.07.2025
72
Поделиться
Библиографическое описание
Клюев, С. Ю. Искусственный интеллект как субъект преступления / С. Ю. Клюев. — Текст : непосредственный // Молодой ученый. — 2025. — № 27 (578). — С. 168-172. — URL: https://moluch.ru/archive/578/127450/.


Преступления с ИИ, по мере его все более активного внедрения в повседневную жизнь человечества, будут лишь набирать обороты. Автомобили, оснащенные искусственным интеллектом, уже передвигаются по дорогам многих стран мира, в том числе и России, а в будущем применение ИИ может начаться и в таких сферах, как медицина, охрана прав граждан, оборона и во многих других отраслях, в которых сбои в работе систем, произошедшие по тем или иным причинам, могут привести к тяжелейшим последствиям и представлять огромную общественную опасность.

Прежде всего нужно дать определение понятию субъекта преступления. Субъект преступления — это лицо, способное нести уголовную ответственность в случае совершения им умышленно или неосторожно общественно опасного деяния, предусмотренного уголовным законом. [1]

Когда системы с ИИ принимают решения, влекущие серьезные последствия или выполняют задачи, которые могут причинить вред, возложение ответственности за этот вред является сложной юридической проблемой. Является ли повлекшее за собой причинение вреда решение ошибкой разработчика, распространителя программы, владельца, конечного пользователя или самой системы ИИ?

Уже сегодня существуют уголовные дела, в которых ИИ принимал непосредственное участие. Например, вызвавшее широкий общественный резонанс дело Uber [2]. Именно на его примере наиболее ярко видны проблемы ответственности в преступлениях, где был замешан ИИ. 18 марта 2018 года в США в городе Темпе автомобиль, принадлежащий компании Uber, под управлением искусственного интеллекта c оператором за рулем в ночное время проходил испытания на дороге. В это время 49-ти летняя Элейн Герцберг (Elaine Herzberg) выбежала на дорогу с велосипедом в неположенном месте. По версии следствия, системы автомобиля не успели среагировать на неожиданно возникшее перед ним препятствие и затормозить. Оператор, который согласно правилам, должен был находиться за рулем автомобиля также не успел предпринять действий для предотвращения ДТП.

Как известно, автомобили, которые принято называть «беспилотными», на самом деле не являются в полной мере таковыми, в них всегда должен находиться оператор, при этом ИИ, управляющий автомобилем, не воспринимается как полная замена человека, а лишь как продвинутая система помощи водителю (анг. advanced driver assistance system или ADAS), а значит не освобождает человека, управляющего транспортным средством от необходимости концентрации внимания на дороге и готовности в нужный момент перехватить управление. Так, например, руководство пользователя к автомобилям компании Tesla, оснащенных автопилотом, регулярно напоминает водителю, что функция автопилота не освобождает его от обязанности следить за дорогой и концентрироваться на управлении транспортным средством. Более того, некоторые функции, такие как автоповорот, не работают если руки водителя не находятся на руле, что определяется при помощи специальных датчиков. [3] Такой подход связан не только с формальными требованиями безопасности, но и с банальным несовершенством автоматизированных систем управления, в основе которых лежит ИИ.

Согласно отчету о происшествии Национального совета по безопасности на транспорте США [4] — агентства, занимающегося расследованием дорожно-транспортных происшествий, ответственность за произошедшее ДТП необходимо возложить на оператора беспилотного автомобиля, поскольку им были нарушены его обязанности по обеспечению безопасности при движении транспорта. На момент ДТП автомобиль передвигался на автопилоте уже некоторое время, а оператор, как видно на видео записи из салона автомобиля, опубликованном после происшествия, отвлеклась на переписку в телефоне и не успела перевести машину на ручное управление и избежать столкновения.

Кроме того, в программе искусственного интеллекта автомобиля все встречаемые им объекты классифицировались по группам: «транспортное средство», «велосипед», «пешеход» или «другое». В зависимости от классификации объекта различаются расчеты, проводимые системой для предсказания траектории его движения. Искусственный интеллект, используемый в автомобиле, был основан на технологии машинного обучения. Согласно уже упомянутому выше отчету Национального совета по безопасности на транспорте США, системы автомобиля идентифицировали выбежавшего на дорогу пешехода как «другое», поскольку в дата сетах, использовавшихся для обучения ИИ, просто отсутствовала информация о том, что люди могут переходить дорогу в не предусмотренных для этого местах. Другие программы автомобиля также не смогли корректно идентифицировать пешехода. Таким образом ИИ «не знал», что люди могут не соблюдать правила дорожного движения, поскольку создатели изначально не предусмотрели этого. В рассматриваемом случае указанная особенность никак не повлияла на исход ДТП, поскольку при приближении к препятствию любого рода срабатывает система автоматического торможения, которая сработала и в этот раз, пусть и с опозданием из-за плохой освещенности и резкого появления препятствия. Однако выявленный недочет наглядно показывает, что зачастую создаваемые человеком системы несовершенны, а значит при определении субъекта преступления при участии ИИ нельзя упускать из виду возможность вины в форме легкомыслия, небрежности, косвенного или даже прямого умысла, людей ответственных за «тренировку» ИИ и подбор дата сетов.

Представляется, что на самой компании Uber также лежит доля ответственности за происшествие. В отчете указывается, что в организации существуют «неадекватные процедуры оценки рисков безопасности». Они выражаются в отсутствии менеджера по безопасности, отвечающего за оценку рисков при испытаниях, а также снижение этих рисков, неэффективном надзоре за операторами автомобилей и отсутствии постоянного контроля за человеком, управляющим объектом повышенной опасности. Запреты на использование мобильных телефонов при проведении испытаний хоть и существовали, но за их соблюдением не следили, что, по одной из версий, и привело к трагедии. В Уголовном кодексе Российской Федерации отсутствует ответственность для юридических лиц, а значит и возможность привлечь к ответственности юридическое лицо –собственника транспортного средства. Теория понимания его как субъекта преступления неприменима для существующего в России на данный момент правопорядка, однако для таких случаев существует ст. 293 УК РФ — халатность, которая делает возможным привлечение к ответственности должностных лиц организаций, ответственных за совершение преступления. Эта норма без каких-либо видимых проблем или необходимости дополнительного нормотворчества (например, выделения специального состава или создания нового, предназначенного для совокупной квалификации) может применяться и в случаях совершения преступлений с ИИ.

Возвращаясь к делу Uber, и в заключение написанного стоит сказать, что следствие по делу продолжается до сих пор и окончательного решения так и не было вынесено [5]. Вышесказанное подтверждает идею о том, что нельзя бездумно возлагать ответственность за совершенное общественно опасное деяние на техническую неисправность или обвинять в совершении преступления того, кто кажется ответственным лишь на первый взгляд. «Размазанность» же ответственности, на которую указывает, например, Г. Халлеви, [6] говоря, что теория уголовной ответственности за действия ИИ должна включать в себя всех лиц причастных к разработке и распространению программ, может стать настоящей проблемой для правоприменителей в судах и правоохранительных органах. З. И. Хисамова и И. Р. Бегишев указывают, что необходимо в первую очередь определить, нарушил ли человек свои обязанности по созданию и разработке ИИ [7]. Этот подход потребует инновационных подходов к расследованию и оценке совершенных деяний, а также высокой профессиональной квалификации судей и работников правоохранительных органов не только в правовой, но и в технической областях.

Говоря об ИИ в контексте совершения преступлений, а именно в отношении субъекта преступления нельзя не упомянуть, действующий на основе больших языковых моделей (LLM) генеративный предобученный трансформер (анг. Generative pre-trained transformer), сокращенно GPT. GPT — это тип нейронных языковых моделей, впервые представленных компанией OpenAI, которые обучаются на больших наборах текстовых данных, чтобы генерировать текст, схожий с человеческим. [8] Наибольшую известность получил ChatGPT от компании OpenAI, а именно его четвертая версия. Он был обучен с использованием нейронной сети, предназначенной для обработки естественного языка, на наборе данных из более чем 45 терабайт текста из интернета (книги, статьи, веб-сайты, другой текстовый контент), который в общей сложности включал миллионы строк текста.

ChatGPT-4 способен обрабатывать и генерировать текст, похожий на человеческий, в ответ на запросы пользователя. Кроме того, он способен выполнять анализ настроений, генерировать текст на основе заданного запроса (например, написать рассказ или стихотворение), а также объяснять, создавать и улучшать код на некоторых из наиболее распространенных языков программирования (таких как Python, Java, C++ и другие). Таким образом, по своей сути, ChatGPT очень хорошо понимает команды, которые ему дает человек, принимает во внимание контекст и выдает ответы, которые могут быть применимы в различных ситуациях на практике.

Хотя вся информация, предоставляемая ChatGPT, находится в свободном доступе в интернете, возможность использовать модель для определения конкретных шагов путем задавания контекстуальных запросов означает, что злоумышленникам станет значительно легче понимать и изучать различные виды преступлений и впоследствии совершать их. По мнению специалистов Европола, способность ChatGPT создавать тексты на основе запроса пользователя делает его чрезвычайно полезным инструментом для фишинговых целей. Фишингом (от англ. fishing — рыбная ловля) называют комплекс методов по получению конфиденциальной пользовательской информации (пара «логин — пароль», верификационные коды, доступ к электронной почте, интернет-банкам и т. д.). [9] Как правило фишинг осуществляется в форме рассылки пользователям электронных писем, содержащих уведомление о необходимости произвести какие-либо действия с учетной записью интернет-банка, социальной сети и т. п., а также ссылку, ведущую на веб-сайт, внешне идентичный сайту, данные от которого пытаются заполучить злоумышленники, в том числе имеющий похожий интернет-адрес, но принадлежащий мошенникам. Если пользователь вводит свои данные, то доступ к ним получают преступники. В результате их могут использовать для шантажа, вывода денежных средств со счетов в интернет-банках или хулиганства. Если раньше многие основные виды фишингового мошенничества, осуществляемого не в индивидуальном режиме по отношению к конкретному пользователю, а «поставленного на поток» было легче обнаружить из-за очевидных грамматических и орфографических ошибок, типовых формулировок или массовости рассылок, то теперь благодаря возможностям, предоставляемыми большими языковыми моделями, ChatGPT в частности, можно чрезвычайно реалистично выдавать себя за организацию или физическое лицо, даже имея лишь базовые знания английского языка, необходимые для пользования соответствующей программой.

Важно отметить, что контекст фишингового электронного письма может быть легко адаптирован в зависимости от потребностей субъекта угрозы, начиная от мошенничества в сфере банкинга и инвестиций и заканчивая атаками с использованием компрометации деловой переписки и обманом руководителей предприятий для получения доступа к корпоративной сети организации (так называемый CEO-fraud). Таким образом, ChatGPT может предложить преступникам новые возможности, особенно для преступлений, связанных с социальной инженерией, учитывая его способность реагировать на сообщения в контексте и выдерживать определенный стиль написания. Кроме того, различным видам онлайн-мошенничества можно придать дополнительную легитимность, используя ChatGPT для создания поддельного взаимодействия в социальных сетях, например, для продвижения мошеннического инвестиционного предложения.

Безусловно, нельзя «винить» ИИ или называть его соучастником преступлений в сфере компьютерной информации или в любых других сферах в силу его нефизической природы. Однако в зависимости от конкретной ситуации может возникнуть вопрос о признании соучастником разработчика сознательно или по собственной небрежности допустившего уязвимости в системе, распространителя системы или её пользователя, предоставившего злоумышленникам доступ к такому инструменту. Кроме того, использование ИИ при совершении преступления может являться дополнительным фактором, отягчающим ответственность для совершившего подобное деяние.

Исследователи в первую очередь ставят вопрос о возможности совершения деяний, представляющих опасность для общества [10]. Нет сомнений, что ИИ может принести человеку вред. Если система задействуется в осуществлении медицинских операций, ее ошибка может нанести вред здоровью человека, а если ИИ работает с финансами может стать участником экономических преступления в сфере предпринимательской деятельности. Однако не ясно действительно ли можно говорить о самостоятельности решений, принимаемыми ИИ. Ведь это — электронная система, неодушевленный предмет.

Можно представить теоретически возможную с учетом темпов развития технологий ситуацию: ИИ, запрограммированный на принесение наибольшей прибыли своему владельцу (например, ИИ бухгалтер, или руководитель предприятия), может совершить действия, квалифицируемые в уголовном законе в качестве преступлений в сфере предпринимательской деятельности или налоговых преступлений, без его ведома или прямого на то указания. В такой ситуации, обвинить человека сложно. Ни создатель ИИ, ни, тем более, его владелец, будь то юридическое или физическое лицо не могут быть привлечены к уголовной ответственности, так как они не просто не совершали никаких противоправных действий, но даже не имели ни одной из возможных форм умысла. Не отдавали прямых распоряжений, не контролировали деятельность и даже верно настроили ИИ.

Из вышесказанного можно сделать несколько выводов. Во-первых, человек не всегда будет нести ответственность за деяния ИИ. Во-вторых, очевидно, что ИИ может абсолютно самостоятельно совершать объективную сторону большинства преступлений, предусмотренных УК РФ. В-третьих, возникает важнейший вопрос о возможности выполнения ИИ субъективной стороны преступления.

Очевидно, что к ИИ, как к системе сугубо технической, а не биологической невозможно применить такие понятия как «осознание собственных действий» или «предвидение последствий», присущие лишь лицам, обладающим психикой, а значит невозможно говорить и о каком-либо умысле, прямом или косвенном, с ее стороны.

Некоторые ученые придерживаются мнения, что в отношении ИИ можно говорить о неосторожности, при том как в форме легкомыслия, так и в форме небрежности [11]. Однако подобное представляется невозможным по тем же причинам, по которым невозможен прямой или косвенный умысел у ИИ, а именно в силу его технической сущности.

Понимать ИИ как полноценный субъект преступления невозможно еще и потому, что возникает очевидная проблема наказания такого субъекта. Поскольку невозможно оштрафовать ИИ, назначить ему любые виды работ, лишить его свободы или наложить другие санкции, предусмотренные законом, то вся суть уголовного преследования такого субъекта сводится к нулю. Подобного же мнения придерживаются М. А. Ефремова и Т. М. Лопатина, [12] а также еще ряд авторов [13].

Обобщая вышесказанное, стоит сделать несколько выводов. Во-первых, ИИ в том виде, в котором он существует на данный момент, не может подлежать уголовной ответственности не только из-за невозможности отвечать законным требованиям к субъективной стороне преступления, но и практических трудностей с исполнением наказания для такого субъекта. Во-вторых, не смотря на отсутствие ответственности для ИИ как таковой, нельзя в полной мере наказывать создателей за ошибки в работе алгоритма или непредусмотрительность. По нашему мнению, то, что решение было принято ИИ, может не просто смягчить ответственность, но и, в отдельных случаях, исключить ее вовсе. Наконец, в-третьих, в качестве полноценного субъекта преступления возможно понимать только «сильный» ИИ, создание которого — дело далекого и неопределенного будущего.

Литература:

  1. Уголовное право Российской Федерации. Общая часть: Учебник для вузов / Под ред. д.ю.н. B. C. Комиссарова, д.ю.н. Н. Е. Крыловой, д.ю.н. И. М. Тяжковой. — М.: Статут, 2012. –с 273.
  2. Д. Александров «Беспилотный автомобиль Uber сбил насмерть пешехода» [Электронный ресурс] https://www.autonews.ru/news/5ab0ae709a79473bfd0f6010 Дата обращения: 11.04.2022
  3. Model Y Owner's Manual [Электронный ресурс] https://www.tesla.com/ownersmanual/modely/en_hk/GUID-EDA77281–42DC-4618–98A9-CC62378E0EC2.html Дата обращения: 11.04.2022
  4. Collision Between Vehicle Controlled by Developmental Automated Driving System and Pedestrian Tempe, Arizona March 18, 2018 [Электронный ресурс] https://www.ntsb.gov/investigations/AccidentReports/Reports/HAR1903.pdf Дата обращения: 11.04.2022
  5. Uber’s Deadly 2018 Autonomous Vehicle Crash Isn’t Over Yet [Электронный ресурс] https://cleantechnica.com/2022/06/13/ubers-deadly-2018-autonomous-vehicle-crash-isnt-over-yet/ Дата обращения: 11.04.2022
  6. Hallevy G. When Robots Kill: Artificial Intelligence under Criminal Law. Lebanon: University Press of New England, 2013. 1–244
  7. Хисамова З. И., Бегишев И. Р. Уголовная ответственность и искусственный интеллект: теоретические и прикладные аспекты // Всероссийский криминологический журнал. 2019. Т. 13. N 4. С. 564–574
  8. Larsen, B. Generative AI: a game-changer that society and industry need to be ready for / B. Larsen, J. Narayan // World Economic Forum: электронный журнал. — URL: https://www.weforum.org/agenda/2023/01/davos23-generative-ai-a-game-changer-industries-and-society-code-developers/. — Дата обращения: 09.02.2023.
  9. Д. В. Бахтеев О некоторых современных способах совершения мошенничества в отношении имущества физических лиц // Российское право: образование, практика, наука. 2016. № 3 (93). // URL: https://cyberleninka.ru/article/n/o-nekotoryh-sovremennyh-sposobah-soversheniya-moshennichestva-v-otnoshenii-imuschestva-fizicheskih-lits (дата обращения: 18.04.2023).
  10. Мосечкин, И.Н. «Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления». Вестник Санкт-Петербургского университета. Право 2019. 3: 461–476. https://doi.org/10.21638/spbu14.2019.304 Дата обращения: 12.02.2023
  11. Бегишев И. Р., Хисамова З. И. Искусственный интеллект и уголовный закон. М.: Проспект, 2021.
  12. Букалерова Л. А., Уторова Т. Н., Сизов Д. О. К вопросу о значении искусственного интеллекта в уголовном праве // Пенитенциарная наука. 2020. Т. 14. N 1. С. 70–75.
  13. The Google engineer who thinks the company’s AI has come to life // The Washington Post: сайт. — URL: https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/ (дата обращения: 22.02.2023)
Можно быстро и просто опубликовать свою научную статью в журнале «Молодой Ученый». Сразу предоставляем препринт и справку о публикации.
Опубликовать статью
Молодой учёный №27 (578) июль 2025 г.
Скачать часть журнала с этой статьей(стр. 168-172):
Часть 3 (стр. 131-199)
Расположение в файле:
стр. 131стр. 168-172стр. 199

Молодой учёный