Статьи

2021 год
Как цитировать: Бегишев И. Р. Криминологическая классификация роботов: риск-ориентированный подход [Текст] / И. Р. Бегишев // Правоприменение. – 2021. – Т. 5, № 1. – С. 185-201.
Аннотация к статье
Раскрываются ключевые аспекты применения риск-ориентированного подхода к робототехнике, в частности предлагается ориентироваться на основные положения криминальной рискологии при оценке посягательств с участием роботов. Обозначены ключевые риски и вызовы при использовании роботов. Дана авторская классификация рисков по тяжести последствий при причинении вреда и по вероятности причинения вреда роботами; приведена матрица степени причинения вреда роботами по категории рисков. На основе риск-ориентированного подхода приведена и обоснована криминологическая классификация роботов, а также выявлен причинный комплекс, который может привести
к возникновению рисков.
Как цитировать: Бегишев И. Р. Уголовная ответственность за создание и (или) распространение роботов, предназначенных для целей совершения преступлений [Текст] / И. Р. Бегишев // Северо-Кавказский юридический вестник. – 2021. – № 2. – С. 140-148.
Аннотация к статье
Деятельность по созданию и распространению роботов для целей совершения преступлений в настоящее время
не охватывается составами преступлений, предусмотренными действующим уголовным законодательством, и может подлежать правовой оценке только как приготовление к соответствующему преступлению в форме приискания, изготовления либо приспособления средств и орудий его совершения. Целью исследования выступает охрана общественных отношений от противоправных деяний, сопряженных с использованием специально предназначенных для этого роботов. Основная задача исследования заключается в выработке уголовно-правовых средств предупреждения и пенализации деятельности, направленной на создание и распространение роботов, предназначенных для целей совершения преступлений. В целях охраны общественных отношений от противоправных деяний, сопряженных с использованием специально предназначенных для этого роботов, осознавая необходимость обеспечения безопасности личности, общества
и государства от преступных посягательств, предотвращения причинения вреда в процессе функционирования таких роботов, целесообразно установить уголовную ответственность за создание и (или) распространение роботов (автономных роботов), предназначенных для целей совершения преступлений
Как цитировать: Бегишев И. Р. Уголовная ответственность за нарушение правил создания, эксплуатации, ремонта либо иного взаимодействия с роботами и автономными роботами [Электронный ресурс] /
И. Р. Бегишев // Baikal Research Journal. – 2021. – Т. 12, № 2.
Аннотация к статье
В настоящее время робототехника наряду с другими сквозными технологиями относится к ключевым драйверам цифровой экономики. Роботы уже сейчас успешно применяются в промышленности, сельском хозяйстве, строительстве, авиации
и многих других отраслях экономической деятельности. Роботы, в силу присущих им свойств, могут не только хранить, обрабатывать и передавать информацию, но и совершать определенные механические действия во исполнение алгоритмов их компьютерных программ. Модели уголовно-правового регулирования, которые сложились и применяются в отношении эксплуатантов средств компьютерной техники, не в полной мере могут быть адаптированы к регулированию роботов
и являются не полностью релевантными для целей охраны общественных отношений, складывающихся в связи с их функционированием. Роботы, в зависимости от своих тактико-технических характеристик, могут быть источником различных по характеру угроз, некоторые из которых создают опасность причинения вреда охраняемым уголовным законом интересам и при неблагоприятном стечении обстоятельств могут реализовать эту опасность. Поэтому деятельность, связанная
с разработкой, эксплуатацией и ремонтом роботов, должна быть корреспондирована уголовно-правовыми нормами запретительного характера. Преследуя цель обеспечения безопасного и бесперебойного создания, эксплуатации, ремонта либо иного взаимодействия с роботами и автономными роботами, а также предотвращения причинения вреда в процессе функционирования таких роботов, представляется возможным предложить законодателю дополнить УК РФ отдельной нормой об ответственности за нарушение правил создания, эксплуатации, ремонта либо иного взаимодействия с такими роботами.
Как цитировать: Бегишев И. Р. Уголовная ответственность за создание, распространение или использование автономных вооруженных роботов [Текст] / И. Р. Бегишев // Вестник Московского государственного областного университета. Серия: Юриспруденция. – 2021. – № 2. – С. 84-93.
Аннотация к статье
Цель. Выработать уголовно-правовые средства предупреждения и пенализации деятельности, направленной на создание, распространение и использование автономных вооружённых роботов, поскольку их применение представляет повышенную опасность для общественных отношений, обеспечивающих мир и безопасность человечества. Процедура и методы. Рассмотрены различные аспекты незаконного оборота автономных вооружённых роботов. Методологическую основу исследования составили общенаучные и частнонаучные методы научного познания. Результаты. В целях поддержания мира и безопасности человечества, сохранения мирного сосуществования государств, при наступлении технологической сингулярности и появлении полностью автономных вооружённых роботов законодателю необходимо дополнить УК РФ отдельной нормой об ответственности за создание, распространение и использование таких роботов. Теоретическая и/или практическая значимость. В настоящее время отсутствуют какие-либо правовые нормы и правила учёта и применения автономных вооружённых роботов. Предложения и выводы настоящего исследования могут быть использованы при создании и совершенствовании механизмов уголовно-правового регулирования робототехники.
Как цитировать: Бегишев И. Р. Социальная обусловленность уголовно-правового регулирования общественных отношений, связанных с робототехникой и киберфизическими системами [Текст] / И. Р. Бегишев // Сибирское юридическое обозрение. – 2021. – Т. 18, № 1. – С. 17-29.
Аннотация к статье
Робототехника и киберфизические системы формируют самостоятельный пласт общественных отношений, характеризующихся повышенной общественной опасностью. Указанное обстоятельство предопределяет признание отдельных категорий роботов источниками повышенной опасности. Темпы развития робототехники и киберфизических систем являются следствием экспонентного, практически взрывного роста интереса к интеллектуальным системам в условиях 4 Промышленной революции и становления Индустрии 4.0, активно поддерживаемого политикой государства на «всеобщую цифровизацию». Поливариативность роботов, высокая степень адаптивности и растущая доступность для широких слоев населения являются предпосылкой для «вовлечения» роботов в различные направления преступной деятельности, вплоть до самостоятельного совершения роботами отдельных преступных посягательств. Являясь комплексными устройствами, обладающими технической, цифровой и энергетической компонентами, робототехника и киберфизические системы подвержены процессам, которые могут стать причиной возникновения вреда для различных групп общественных отношений. Внедрение робототехники и киберфизических систем в промышленность, производство
и в военную сферу сопряжено со значительными рисками причинения вреда различным объектам уголовно-правовой охраны. С ростом автономности робототехники неуклонно будут расширяться и сферы, где совершаются посягательства
с их участием. В связи с этим требуется проработка механизмов уголовной ответственности в случае причинения вреда системами искусственного интеллекта и робототехники, имеющими высокую степень автономности при принятии решений. Определены критерии запроса на уголовно-правовое регулирование робототехники. Выявлены основные причины возникновения криминологических рисков, связанные с конструктивными особенностями роботов. Несомненно,
для уголовного права базисом выступает категория общественной опасности, которая одновременно обеспечивает концептуальное единство уголовно-правовых норм, параллельно являясь водоразделом, отграничивающим их от иных отраслей права. Крайне важно определить границы уголовно-правового регулирования, которые формируются исключительно общественной опасностью тех или иных деяний с применением робототехники. Таким образом, следует констатировать, что текущий уровень развития робототехники и киберфизических систем, а также их вовлеченность
в процессы жизнедеятельности общества обусловливают необходимость создания эффективных механизмов уголовно-правового регулирования.
Как цитировать: Бегишев И. Р. Проблема определения правосубъектности роботов [Текст] / И. Р. Бегишев //
Ex jure. – 2021. – № 3. – С. 7-16.
Аннотация к статье
Исследуется важная для правовой науки проблема определения правосубъектности роботов, рассмотрены ее перспективы. Часть исследователей считает, что наделение роботов правосубъектностью по той причине, что их поведение не является полностью самостоятельным, а волеизъявление находится под вопросом. Другие предполагают, что, наоборот, предоставление возможности сделать более прозрачными правоотношениями с участием робота, как возможности возложить на определенную ответственность за собственные действия. Установлено, что в сложившихся условиях невозможно наделить робота правосубъектностью, так как сквозные цифровые технологии еще не достигли необходимого уровня развития. И робот не может выступать полностью автономным субъектом. Однако с течением времени и в процессе совершенствования прорывных технологий ситуация может измениться, и наделение робота правосубъектностью станет необходимой. Это позволит юристам четко и системно оценивать правоприменительную практику с участием роботов, чтобы в нужный момент, с учетом уровня развития и применения робототехники, принять решение об инициации вопроса
о присвоении роботу статуса субъекта права.
Как цитировать: Бегишев И. Р. Ответственность за вред, причиненный беспилотными транспортными средствами: комплексно-юридические аспекты [Текст] / И. Р. Бегишев // Транспортное право и безопасность. – 2021. – № 2 (38). – С. 68-74.
Аннотация к статье
В работе рассматриваются перспективы регулирования деликтных правоотношений, возникающих в связи с причинением вреда беспилотным транспортным средством. Оценивается состояние понятийного аппарата и существующих дефиниций, описывающих данные транспортные средства. Формулируется вывод о предпосылках разрешения вопроса о гражданско-правовой и уголовной ответственности за подобный вред.
Как цитировать: Бегишев И. Р. Проект федерального закона «Об обороте роботов, их составных частей (модулей)» [Текст] / И. Р. Бегишев // Актуальные проблемы экономики и права. – 2021. – Т. 15, № 2. –
С. 379-391.
Аннотация к статье

Цель: разработка проекта федерального закона, направленного на регулирование отношений, возникающих в сфере использования (применения), приобретения, сбыта, разработки, производства, испытания, установки, монтажа, технического обслуживания, ремонта, утилизации, учета, хранения, перевозки, транспортирования, изъятия, уничтожения роботов, их составных частей (модулей), ввоза роботов, их составных частей (модулей) в Российскую Федерацию и вывоза их из Российской Федерации.

Результаты: вниманию представителей правотворческих органов, государственных ведомств, научной общественности, бизнес-сообщества и общественных организаций предложен первый в Российской Федерации законопроект о робототехнике – проект федерального закона «Об обороте роботов, их составных частей (модулей)».

Научная новизна: в законопроекте сформированы правовая основа и принципы правового регулирования отношений

в сфере оборота роботов, их составных частей (модулей), описаны виды, типы и классы опасности роботов, зафиксированы ограничения, устанавливаемые на оборот роботов, их составных частей (модулей), определены общие и специальные требования, предъявляемые к ним, установлены основы государственной регистрации и учета субъектов, осуществляющих деятельность в сфере оборота роботов, их составных частей (модулей), введены критерии приобретения статуса субъекта, осуществляющего деятельность в сфере оборота роботов, их составных частей (модулей), определен порядок издания

и ведения государственного кадастра моделей роботов, их составных частей (модулей), установлены гарантии, предоставляемые юридическим лицам и индивидуальным предпринимателям – субъектам, осуществляющим отдельные виды деятельности в сфере оборота роботов, их составных частей (модулей), выработаны меры их государственной поддержки.

Практическая значимость: законопроект основан на системном и комплексном подходе к правовому регулированию робототехники и направлен на формирование регуляторной среды, обеспечивающей благоприятный правовой режим

для развития робототехники, а также для осуществления экономической деятельности, связанной с ее использованием.

2020 год
Как цитировать: Begishev I. R. Artificial Intelligence and Problems of Ensuring Cyber Security [Text] / Z. I. Khisamova,
I. R. Begishev, E. L. Sidorenko // International Journal of Cyber Criminology. – 2019. – Vol. 13, No 2. – Pp. 564-577.
Аннотация к статье

The active use of artificial intelligence leads to the need to resolve a number of ethical and legal problems. The ethical framework for the application and use of data today is highly blurred, which poses great risks in ensuring data confidentiality. In the article, the authors analyzed in detail the main problems in the field of cybersecurity in connection with the active use of AI. The study identified the main types of criminological risks associated with the active implementation of AI. By a separate question, the authors investigated the issues of bringing to responsibility and compensation for damage caused by AI. The authors argue the position about the need to recognize AI as a source of increased danger. It is proposed to use the legal fictitious as a method in which a particular legal personality of AI can be perceived as a non-standard legal position, different from reality.

Как цитировать: Бегишев И. Р. Организация хакерского сообщества: криминологический и уголовно-правовой аспекты [Текст] / И. Р. Бегишев, З. И. Хисамова, С. Г. Никитин // Всероссийский криминологический журнал. – 2020. – Т. 14, № 1. – С. 96-105.
Аннотация к статье

Цифровые технологии являются неотъемлемой частью нашей повседневной жизни. Независимо от того, есть ли у нас дома компьютер, используя электронные гаджеты, зависимость от технологий возрастает. Безопасная цифровая среда повышает доверие населения и создание стабильного и процветающего государства. Правительство и бизнес-сообщество также используют возможности технологической революции за счет более широкого внедрения и применения цифровых технологий. Традиционные формы преступности тоже эволюционировали. Преступные объединение перемещаться в информационно-телекоммуникационную сеть Интернет. Цифровые виды преступных деяний развиваются невероятно быстрыми темпами. Поэтому мы должны идти в ногу с цифровыми технологиями, понимать возможности, которые они могут использовать для киберпреступников, и то, как их можно использовать в качестве инструмента для борьбы с киберпреступностью. На фоне активного проникновения цифровых технологий на протяжении последних трех десятилетий во все сферы жизни общества происходило формирование особой категории правонарушителей - так называемых хакеров. Преступные группы хакеров общественно опасны, поскольку они могут спланировать мощную компьютерную атаку, в том числе в отношении объектов критической информационной инфраструктуры. Кроме того, хакерские группы стали вполне реальной угрозой для правительств, крупных корпораций и военных ведомств, так и частных лиц. Прогнозировавшаяся несколько лет назад экспертами тенденция граней между хакерскими группами и организованной преступностью стала явью. И сейчас фактически можно говорить о возникновении нового самостоятельного вида организованной преступности - хакерского сообщества. Указанные обстоятельства обусловливают возможность использования специальных предложений, предусматривающую ответственность за организацию хакерского сообщества. Наличие такой нормы позволит обеспечить комплексный подход к уголовно-правовому противодействию деятельности преступных сообществ и адекватную уголовно-правовую оценку действий лиц, выступающих в качестве организаторов - координаторов хакерских организаций. И сейчас фактически можно говорить о возникновении нового самостоятельного вида организованной преступности - хакерского сообщества. Указанные обстоятельства обусловливают возможность использования специальных предложений, предусматривающую ответственность за организацию хакерского сообщества. Наличие такой нормы позволит обеспечить комплексный подход к уголовно-правовому противодействию деятельности преступных сообществ и адекватную уголовно-правовую оценку действий лиц, выступающих в качестве организаторов - координаторов хакерских организаций. И сейчас фактически можно говорить о возникновении нового самостоятельного вида организованной преступности - хакерского сообщества. Указанные обстоятельства обусловливают возможность использования специальных предложений, предусматривающую ответственность за организацию хакерского сообщества. Наличие такой нормы позволит обеспечить комплексный подход к уголовно-правовому противодействию деятельности преступных сообществ и адекватную уголовно-правовую оценку действий лиц, выступающих в качестве организаторов - координаторов хакерских организаций.

Как цитировать: Бегишев И. Р. Уголовно-правовые и криминологические аспекты применения робототехники [Текст] / И. Р. Бегишев // Алтайский юридический вестник. – 2020. – № 4 (32). – С. 72-79.
Аннотация к статье

В статье с позиций целей правотворчества и правоприменения рассматриваются понятийнокатегориальный аппарат робототехники, ее уголовно-правовое значение, криминологические риски, связанные с робототехникой, а также вопросы общей теории квалификации преступлений, которые могут быть совершены с использованием робототехники. Предложено признавать общественно опасные деяния, совершенные с использованием робототехники, преступлениями, совершенными общеопасным способом, при наличии к тому оснований. Сделан вывод, что совершение деяний с использованием робототехники способно в определенных случаях создавать множественность преступлений в виде реальной совокупности. Обосновано расширение полномочий органов государственной охраны, которые могут осуществлять функции по выработке государственной политики, нормативно-правовому регулированию, контролю и надзору в сфере робототехники. Проанализированы непосредственные и опосредованные криминологические риски применения робототехники, а также обсуждены вопросы ответственности производителя (разработчика) и (или) владельца (пользователя) робототехники за деяния, совершенные с ее участием.

Как цитировать: Бегишев И. Р. Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники: анализ основных положений [Электронный ресурс] /
И. Р. Бегишев // Baikal Research Journal. – 2020. – Т. 11, № 4.
Аннотация к статье

Распоряжением Правительства российской Федерации от 19 августа 2020 г. № 2129-р была утверждена Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года. Указанный документ на сегодняшний день представляет собой комплекс правовых перспектив в указанной области, а также определяет направления работы в рамках создания многоаспектной правовой платформы в области робототехники

и искусственного интеллекта. Концепция предусматривает различные направления совершенствования правового режима регулирования систем искусственного интеллекта и робототехники, в частности, рассматривает вопросы, связанные

со страхованием ответственности за вред, причиненный системами искусственного интеллекта или роботами, обменом данных и системой защиты персональных данных, проблемы экспорта систем искусственного интеллекта и роботов и пр. Анализ основных положений Концепции позволяет заключить, что с учетом всего многообразия направлений, учтенных документе, можно сказать, что, в целом, указанный документ является достаточно органичным в рамках рассматриваемого вопроса и с учетом конкретизации и дополнения отдельных его разделов может занять своей достойное место среди подобных ему зарубежных аналогов.

Аннотация к статье

Представители отрасли развития и применения технологий искусственного интеллекта все больше осознают как возможности, так и риски, связанные с использованием ИИ. Тем не менее, в обществе отсутствует консенсус в отношении процессов контроля и надзора, которые следует ввести для обеспечения надежного развертывания систем ИИ.

В целом можно констатировать, что по мере увеличения числа систем с искусственным интеллектом, обрабатывающих персональные данные граждан, все активнее ставится вопрос об этичности их использования в различных целях.

Без формирования этических основ применения систем с искусственным интеллектом и принципов обработки персональных данных, используемых при их обработке, дальнейший прогресс невозможен. Общественные правовые институты уже активно участвуют в этическом регулировании искусственного интеллекта. При этом необходимо также помнить, что чрезмерные ограничения на доступ к данным могут замедлить развитие технологий искусственного интеллекта, на что неустанно обращают внимание технологические гиганты. Продуманная правовая база в сфере технологий искусственного интеллекта и ее применение позволят поддерживать баланс регулирования объема и степени анонимности личных данных без наложения многочисленных запретов. Но такое законодательство, к сожалению, еще не создано ни в одном государстве мира.

Как цитировать: Бегишев И. Р. Искусственный интеллект и робототехника: теоретико-правовые проблемы разграничения понятийного аппарата [Текст] / И. Р. Бегишев, З. И. Хисамова // Вестник Удмуртского Университета. Серия Экономика и право. – 2020. – Т. 30, № 5. – С. 706-713.
Аннотация к статье

Проводится разграничение таких понятий, как «робототехника» и «искусственный интеллект». По мнению авторов, указанные категории являются не только разнообъемными, но и семантически не совпадающими. Анализ понятийного аппарата указанных терминов позволяет заключить, что, в отличие от первого, второму свойственно наличие «интеллектуальности», саморазвития и пр. Отмечается, что, дискутируя относительно правового статуса роботов и искусственного интеллекта, большинство ученых допускают смешение понятий, предпринимаются попытки обосновать необходимость наделения правовым статусом именно роботов, а не искусственный интеллект. Вопрос, касающийся рассмотрения роботов и искусственного интеллекта в качестве субъектов права, в принципе, можно признать обоснованным. В перспективе данная тема актуальности не утратит. Среди имеющихся на данный момент подходов к рассмотрению роботов и искусственного интеллекта как субъектов права наиболее обоснован путь, построенный по аналогии с юридическим лицом с точки зрения теории фикции. Подходы, предлагающие обосновать правосубъектность роботов и искусственного интеллекта с учетом сущности одушевленных субъектов, у которых есть реальная, а не только формально-юридическая воля, получат развитие только после того, как цифровые технологии достигнут объективно высокого уровня. Реализуя рассматриваемые подходы, необходимо учесть наличие юридико-экономической обоснованности и социальной обусловленности, а также возможную теоретико-правовую проблему, суть которой в следующем: если ввести новые юридические сущности, имеющие правосубъектность, то может снизиться уровень ответственности профессиональных участников рынка.

Как цитировать: Бегишев И. Р. История становления и теоретико-правовые подходы к толкованию понятия «искусственный интеллект» [Текст] / З.И. Хисамова, И. Р. Бегишев // Алтайский юридический вестник. –
2020. – № 3 (31). – С. 31-38.
Аннотация к статье

Проведен комплексный анализ существующих в научной литературе определений понятия «искусственный интеллект». Показано, что наиболее убедительна и последовательна позиция тех ученых, которые склонны к описанию рассматриваемого понятия посредством обозначения его сущностных свойств и признаков. К таким свойствам и признакам искусственного интеллекта можно отнести способность к рассуждению и контролю, правопониманию и правосознанию, обучению и развитию, автономности деятельности и принятия решений и т.д. На основе результатов комплексного анализа разработан авторский вариант понятия «искусственный интеллект» как правовой категории, предложено ввести его в научный оборот.

Как цитировать: Бегишев И. Р. Сущность искусственного интеллекта и проблема определения правосубъектности [Текст] / З. И. Хисамова, И. Р. Бегишев // Вестник Московского государственного областного университета. Серия: Юриспруденция. – 2020. – № 2. – С. 96-106.
Аннотация к статье

Цель. Цель данного исследования заключается в определении правовой сущности искусственного интеллекта и выработке единого подхода к установлению возможной правосубъектности, а также юридической ответственности искусственного интеллекта. Процедура и методы исследования. Авторами проанализированы имеющиеся научная литература и нормативно-правовая база в сфере правового регулирования искусственного интеллекта. Методологическую основу исследования составляет совокупность методов научного познания, в т. ч. абстрактно-логического, корреляционного анализа и сравнения. Результаты проведённого исследования. Анализ показал, что в настоящее время не разработано определения понятия «искусственный интеллект», имеет место проблема признания его субъектом права. Авторы утверждают, что, только решив вышеуказанные вопросы, можно сформировать модель правового регулирования, включающую ряд правоотношений с участием искусственного интеллекта и возложением на него юридической ответственности. Оптимальным видится наделение искусственного интеллекта ограниченной правосубъектностью (путём применения юридической фикции), обязанностью нести ответственность за причиняемый вред и негативные последствия. Теоретическая / практическая значимость. Теоретическая и практическая значимость исследования обусловлена отсутствием в настоящее время возможности применения к отношениям с участием искусственного интеллекта правовых норм и правил, учитывающих их сущность. Основные положения и выводы исследования могут быть использованы для совершенствования механизмов правового регулирования искусственного интеллекта.

Как цитировать: Бегишев И. Р. Искусственный интеллект как правовая категория: доктринальный подход
к разработке дефиниции [Текст] / И. Р. Бегишев, Э. Ю. Латыпова, Д. В. Кирпичников // Актуальные проблемы экономики и права. – 2020. – Т. 14, № 1. – С. 79-91.
Аннотация к статье

Цель: проведение критического анализа существующих дефиниций искусственного интеллекта и разработка авторского варианта рассматриваемого понятия.Методы: методологическую основу исследования составляет совокупность методов научного познания, в том числе абстрактно-логический, сравнения и корреляционного анализа.Результаты: выявлены основные закономерности принятия решений искусственным интеллектом, определен механизм восприятия им обстоятельств объективной реальности, подтверждена принципиальная способность кибернетического образования соотносить свое поведение с социально приемлемыми процессами. Высказано предположение, что существует множество способов описания искусственного интеллекта: посредством указания на механизм действия, основных принципов работы, спектра решаемых задач и т. д., и т. п. Однако наиболее убедительна и последовательна позиция тех исследователей, которые склонны к описанию феномена искусственного интеллекта посредством обозначения его свойств и характеристик. Авторы статьи констатируют, что в современной правовой доктрине отсутствует определение «искусственный интеллект».

В результате комплексного анализа различных источников научной информации, в системном единстве с собственными суждениями предложено ввести в научный оборот авторский вариант понятия «искусственный интеллект». Научная новизна: в работе приведена оценка имеющихся в научной литературе и нормативно-правовой базе определений понятия «искусственный интеллект» с высказыванием авторский позиции об их относимости, всесторонности и актуальности,

а также предпринята попытка с учетом всех значимых свойств искусственного интеллекта сформулировать

его определение. Практическая значимость: обусловлена отсутствием в настоящее время возможности применения

к отношениям с участием искусственного интеллекта правовых норм и правил, учитывающих их специфику. Основные положения и выводы исследования могут быть использованы для совершенствования механизмов правового регулирования искусственного интеллекта в Российской Федерации.

Как цитировать: Бегишев И. Р. Проблемные вопросы уголовно-правовой охраны персональных данных [Текст] / И. Р. Бегишев, Д. В. Кирпичников // Уголовная юстиция. – 2020. – № 15. – С. 11-16.
Аннотация к статье

Обосновывается необходимость проработки моделей уголовно-правовой охраны общественных отношений, обеспечивающих законный режим хранения, передачи и обработки персональных данных. Исследована детерминационная взаимосвязь между повышением роли цифровых технологий и возникновением криминологических рисков в области уголовно-правовой охраны персональных данных. На основе анализа имеющихся определений понятия «персональные данные» формулируется вывод об излишней абстракции данной дефиниции. Вносятся отдельные предложения

по совершенствованию механизмов уголовно-правовой охраны персональных данных.

Как цитировать: Бегишев И. Р. Искусственный интеллект и робот как правовые категории [Текст] /
И. Р. Бегишев // Безопасность бизнеса. – 2020. – № 6. – С. 32-36.
Аннотация к статье

В статье рассматривается проблематика понимания искусственного интеллекта и роботов как правовой категории. Проанализированы механизмы правового регулирования искусственного интеллекта и робототехники. Выявлены специфические признаки указанных правовых категорий.

2019 год
Как цитировать: Бегишев И. Р. Уголовная ответственность и искусственный интеллект: теоретические
и прикладные аспекты [Текст] / З. И. Хисамова, И. Р. Бегишев // Всероссийский криминологический журнал. – 2019. – Т. 13, № 4. – С. 564-574.
Аннотация к статье
Человечество стоит на пороге эпохи, когда расширение горизонтов использования искусственного интеллекта развязывает новую промышленную революцию. Его применение неизбежно приводит к проблеме этического выбора, порождает правовые вопросы, требующие оперативного вмешательства. В статье подвержены анализу вопросы уголовно-правовой оценки поведения искусственного интеллекта. В первую очередь открытым остается вопрос, кто должен нести ответственность за действия искусственного интеллекта, обладающего способностью к самообучению, который принял решение о совершении действий/бездействия, квалифицируемых как преступление. Вследствие этого возникает потребность в формировании системы уголовно-правовых мер противодействия преступлениям, совершаемым
с применением искусственного интеллекта. Показано, что в процессе применения искусственного интеллекта возможны четыре ситуации, требующие уголовно-правового регулирования. Подчеркнута необходимость четкого, строгого
и эффективного определения этических рамок при разработке, проектировании, производстве, использовании
и модификации искусственного интеллекта. Выдвинуты доводы о необходимости его признания источником повышенной опасности. Отдельно авторы указывают, что наличие в УК РФ норм, предусматривающих ответственность за совершение преступлений в сфере компьютерной информации, не исключает возможности привлечения за посягательства, совершенные с применением искусственного интеллекта, по общим нормам о наказаниях за различные преступления.
Также авторам видится возможным установление системы стандартизации и сертификации деятельности по созданию
и введению в эксплуатацию искусственного интеллекта. Между тем автономный, способный к самообучению искусственный интеллект существенно отличается от других явлений и объектов, ввиду чего гораздо сложнее обстоит дело
с ответственностью искусственного интеллекта, принявшего решение о совершении деяний, квалифицируемых как преступление, самостоятельно. В работе проанализировано содержание резолюции Европейского парламента
о возможности наделения искусственного интеллекта правовым статусом, изложены основные принципы и смысл
ее существования. Особое внимание уделено вопросу наделения искусственного интеллекта правосубъектностью. Предложено использовать юридическую фикцию как прием, при котором специфическая правосубъектность искусственного интеллекта может восприниматься как нестандартное правовое положение, отличное от реальности. Предполагается,
что такое решение способно снять ряд существующих сегодня правовых ограничений, препятствующих активному вовлечению ИИ в правовое пространство.
Как цитировать: Бегишев И. Р. Безопасность критической информационной инфраструктуры Российской Федерации [Текст] / И. Р. Бегишев // Безопасность бизнеса. – 2019. – № 1. – С. 27-32.
Аннотация к статье
В статье рассматриваются проблемы, связанные с выработкой новых государственных подходов к обеспечению безопасности критической информационной инфраструктуры в условиях существования угроз их информационной безопасности, в том числе при проведении в отношении нее компьютерных атак. Анализируются основные положения Федерального закона от 26 июля 2017 г. № 187-ФЗ «О безопасности критической информационной инфраструктуры Российской Федерации». Раскрыто содержание и сущность понятия «безопасность критической информационной инфраструктуры». Обосновано, что обеспечение безопасности критической информационной инфраструктуры должно основываться на принципах и методологии обеспечения национальной безопасности. Выработаны предложения по отнесению части субъектов экономической деятельности к субъектам критической информационной инфраструктуры, предложены некоторые дополнительные механизмы повышения защищенности критической информационной инфраструктуры.
Как цитировать: Бегишев И. Р. Сравнительно-правовой анализ законодательства Великобритании и России
в области противодействия преступлениям в цифровой сфере [Электронный ресурс] / И. Р. Бегишев,
З. И. Хисамова // Baikal Research Journal. – 2019. – Т. 10, № 3.
Аннотация к статье
В работе приведен компаративный анализ уголовного и информационного законодательства, правовых актов по обеспечению кибербезопасности Великобритании и России. Опыт Великобритании как наиболее «цифровой» страны мира в противодействии преступлениям, совершаемым с использованием цифровых технологий, представляется как никогда востребованным и актуальным. Отмечается, что в России ущерб для граждан и организаций от преступных посягательств в пять раз превышает аналогичный ущерб для поданных Великобритании, между тем общее количество зарегистрированных в Российской Федерации посягательств значительно ниже официальной криминальной статистики Великобритании. Авторами обосновывается тезис о целесообразности создания в российском законодательстве более универсальных норм с определенным «порогом прочности» к новым видам цифровых угроз. Утверждается, что отдельным направлением внутренней уголовной политики всех стран должно стать создание эффективных механизмов применения положений законодательства в цифровой сфере. На основе проведенного исследования предложены некоторые механизмы обеспечения безопасности отношений в цифровой сфере.
Как цитировать: Бегишев И. Р. Правовое регулирование искусственного интеллекта [Электронный ресурс] /
З. И. Хисамова, И. Р. Бегишев // Baikal Research Journal. – 2019. – Т. 10, № 2.
Аннотация к статье
В современном цифровом пространстве вопросы применения искусственного интеллекта (далее - ИИ) и сфера разработки интеллектуальных технологий являются крайне важными и актуальными. На протяжении последних нескольких лет наблюдаются попытки государственного регулирования ИИ, как в России, так и в других странах мира. Среди существующих на сегодняшний день подходов наиболее оптимальным видится создание отдельного механизма правового регулирования, создающего четкое разграничение зон ответственности между разработчиками и пользователями систем с ИИ и непосредственно самой технологией. Отдельным направлением должно стать внедрение единых для всех разработчиков и пользователей этических принципов для систем с ИИ. Наиболее оптимальным в данном аспекте является подход, реализованный в рамках Азиломарских принципах. В указанных обстоятельствах обращение к проблеме правового регулирования ИИ становится как никогда актуальным. В рамках настоящей статьи приведены результаты детального анализа существующих подходов к правовому регулированию ИИ.
2018 год
Как цитировать: Бегишев И. Р. Криминологические риски применения искусственного интеллекта [Текст] /
И. Р. Бегишев, З. И. Хисамова // Всероссийский криминологический журнал. – 2018. – Т. 12, № 6. – С. 767-775.
Аннотация к статье
В современном цифровом мире тематика искусственного интеллекта и сфера разработки интеллектуальных технологий являются крайне актуальными и важными. За полувековую историю искусственный интеллект успел перерасти
из теоретической концепции в интеллектуальную систему, способную самостоятельно принимать решения. В числе ключевых преимуществ внедрения искусственного интеллекта в первую очередь отмечается возможность освобождения человечества от рутинной работы и переход к творческой деятельности, на которую машины не способны. По данным международных консалтинговых агентств, инвестиции компаний в цифровую трансформацию к 2021 г. в глобальном масштабе достигнут 58 трлн дол., а в 2030 г. глобальный ВВП вырастет на 14 %, или на 15,7 трлн дол. США, в связи
с активным использованием искусственного интеллекта. Однако его стремительное развитие поставило перед государством и обществом необходимость противостоять новым угрозам, связанным со способностью искусственного интеллекта
к саморазвитию, в частности необходимость нормативной регуляции его деятельности и противодействия угрозам, возникающим при его функционировании. В статье приведены результаты подробного изучения мнений ведущих
ученых, занимающихся социальными аспектами деятельности искусственного интеллекта. Определено, что вопрос правового регулирования правосубъектности искусственного интеллекта, не говоря уже о совершении им юридически значимых действий, на сегодняшний день остается открытым. В настоящее время началось формирование криминологических основ применения искусственного интеллекта, вызванных появлением новых интеллектуальных технологий, что требует принятия действий и решений по предупреждению возможных негативных проявлений его
использования и государственному реагированию на них. В статье на основе анализа истории возникновения и развития искусственного интеллекта изложены его ключевые характеристики, несущие в себе криминологические риски, определены
виды криминологических рисков применения искусственного интеллекта, предложена авторская классификация указанных рисков. В частности, выделены прямой и косвенный криминологические риски применения искусственного интеллекта.
На основе детального анализа авторами выявлена объективная необходимость создания в стране компетентных органов
по выработке государственной политики в сфере нормативного правового регулирования искусственного интеллекта, контроля и надзора за его использованием.
Как цитировать: Бегишев И. Р. Синдром безопасной атаки: юридико-психологический феномен [Текст] /
И. Р. Бегишев // Юридическая психология. – 2018. – № 2. – С. 27-30.
Аннотация к статье
В статье обоснована необходимость введения в научный оборот авторского определения юридико-психологического феномена «синдром безопасной атаки», под которым предлагается понимать состояние субъектов информационных правоотношений, осознающих опасность нарушения и важность обеспечения безопасности информационной инфраструктуры, но в силу различных причин не обеспечивающих ее в том числе при проведении в отношении нее компьютерных атак.

© 2021-2022 Бегишев Ильдар Рустамович

Материалы сайта являются общедоступными и открытыми для использования

в научных, исследовательских, образовательных и (или) просветительских целях.

Внесение каких-либо изменений в копируемую (цитируемую) информацию не допускается.