• +375 29 589 42 24

МЕЖДУНАРОДНО-ПРАВОВОЕ РЕГУЛИРОВАНИЕ РАЗВИТИЯ И ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Толочко, О.Н. Международно-правовое регулирование развития и использования искусственного интеллекта / О.Н. Толочко // Информационные технологии и право : правовая информатизация – 2021 : сб. материалов VII Междунар. науч.-практ. конф. (г. Минск, 28 окт. 2021 г.) / Национальный центр правовой информации Республики Беларусь ; под общ. ред. А. Ф. Мательского. – Минск : НЦПИ, 2021. – С. 376–382.

Актуальной проблемой, стоящей перед мировым сообществом, является международно-правовое регулирование искусственного интеллекта. В настоящее время правовые нормы в данной сфере фактически отсутствуют, хотя имеется ряд документов рекомендательного характера. В статье анализируются некоторые из этих документов и обозначаются вопросы, требующие внимания современной юридической науки.

Развитие и использование технологий искусственного интеллекта обусловливает острую потребность в совершенствовании их правового регулирования как на национальном, так и на международном уровне. В настоящее время правоведы обсуждают новые возможности и вызовы, связанные с прогрессом информационных и коммуникационных технологий. Главной задачей правового регулирования в рассматриваемой сфере является установление и поддержание баланса между расширяющимися возможностями развития искусственного интеллекта и рисками, сопутствующими передаче принятия управленческих решений от человека к машине.

Различия в правовых системах и научно-техническом уровне государств требуют приведения национальных законодательств к некоему общему знаменателю и формирования единых для членов международного сообщества правил игры. При этом требуется не только выработка единообразных правил разработки, внедрения и использования технологий искусственного интеллекта, но и закрепление этических принципов такого регулирования. Кроме того, требуется разработка и принятие многочисленных технических норм.

Как уже отмечалось, международно-правовое регулирование искусственного интеллекта должно формироваться на основе этических норм, современных представлений о добре и зле, справедливости и несправедливости. Искусственный интеллект изменяет мир: его системы становятся всё более автономными, а способности человека понимать и контролировать их уменьшаются.

Первые этические принципы искусственного интеллекта были сформулированы еще Айзеком Азимовым («законы робототехники»): 1) робот не может причинить вред человеку или своим бездействием допустить это; 2) робот должен подчиняться приказам человека, за исключением случаев, когда эти приказы противоречат первому закону. Впоследствии эти, а также некоторые иные положения вошли в текст «Азиломарских принципов» – документа, выработанного на научной конференции в Азиломаре (Калифорния) в 2017 году [1].

Техническое регулирование искусственного интеллекта представляет собой внедрение стандартов, которым должны соответствовать технологические решения. Техническое регулирование должно касаться единой терминологии, принципов построения и регулирования систем искусственного интеллекта, требования к алгоритмам и др.

Необходимо констатировать, что международно-правовое регулирование технологий искусственного интеллекта находится пока в зачаточном состоянии. Конвенции, которые закрепляли бы обязательные для государств нормы для данной сферы, в настоящее время отсутствуют. Имеются лишь некоторые документы рекомендательного характера, направленные на формирование единых норм и стимулирующие переговорный процесс и научно-правовую мысль на данном направлении.

Одним из таких документов является Окинавская хартия глобального информационного общества 2000 г., которая была подписана представителями ведущих мировых держав и провозгласила необходимость создания нормативной базы развития информационных и коммуникационных технологий [2].

В 2019 г. были приняты Рекомендации по искусственному интеллекту ОЭСР, которые стали первым межправительственным документом на данную тему. Документ включает 5 принципов и 5 рекомендаций национальным правительствам. В числе последних – содействие инвестициям в исследования и разработки искусственного интеллекта; содействие доступности экосистем искусственного интеллекта; обеспечение политической среды, способствующей развертыванию надежных систем искусственного интеллекта; обеспечение возможностей для получения навыков в области искусственного интеллекта; международное сотрудничество [3].

В 2019 г. на саммите «Большой двадцатки» министры экономики государств-участников приняли Заявление, в котором подчеркивалась необходимость построения цифрового общества, основанного на доверии между всеми сторонами: правительствами, гражданским обществом, международными организациями, научными центрами, бизнесом. Стороны декларировали антропоцентризм в развитии искусственного интеллекта и учет рисков новых социальных проблем, в том числе изменений на рынке труда. В Заявлении подчеркивается также необходимость защиты персональных данных и конфиденциальной информации при наращивании потенциала искусственного интеллекта [4].

Активно развивается регулирование технологий искусственного интеллекта в Европейском Союзе. В 2017 году Европейский парламент одобрил резолюцию относительно норм гражданского права о робототехнике, в которой, среди прочего, предлагается признать специальный правовой статус электронного лица для сложных роботов, принимающих самостоятельные решения. Цель такого нововведения – возможность возложения на роботов (прежде всего, беспилотные автомобили) ответственности за причиненный ими ущерб. Данное предложение пока в законодательстве не реализовано.

В 2018 г. представителями 25 европейских государств была подписана Декларация о сотрудничестве в области искусственного интеллекта, где закрепляется необходимость выработки интегрированного подхода к развитию искусственного интеллекта для повышения конкурентоспособности экономики Европейского Союза, а также создание центров цифровых инноваций на общеевропейском уровне. Принятые в том же году Коммюнике «Искусственный интеллект для Европы» и «Согласованный план по искусственному интеллекту» провозглашают создание единого «цифрового рынка» с общими требованиями к кибербезопасности и антропоцентричный подход к его развитию.

В 2019 г. в Европейском Союзе было разработано «Руководство по этике для надежного искусственного интеллекта», где перечислены требования, которым должны соответствовать системы искусственного интеллекта: подконтрольность человеку, техническая безопасность, сохранение конфиденциальности, транспарентность, отсутствие дискриминации и справедливость, общественное и экологическое благополучие и ряд других [5].

В 2020 г. Европейская комиссия опубликовала «Белую книгу искусственного интеллекта», которая направлена на развитие экосистемы, обеспечивающей надежное и безопасное развитие искусственного интеллекта при уважении европейских ценностей и прав граждан [6].

Экспоненциальный рост применения технологий искусственного интеллекта в самых разных областях человеческой жизнедеятельности активизировал деятельность субъектов международного права по формированию общих принципов его правового регулирования. В этот процесс включены и предприятия – разработчики систем искусственного интеллекта. Дискуссии о соотношении права и морали в данной сфере зачастую финансируются крупными корпорациями, по инициативе которых разрабатываются этические кодексы систем искусственного интеллекта. Несмотря на очевидную пользу такого подхода, тем не менее, следует признать, что одним из его последствий является ситуация, при которой начинают доминировать такого рода рекомендательные нормы, а создание правовых обязательств, реальных юридических норм, – в значительной мере тормозится. Крупные компании объективно не заинтересованы в правовых ограничениях, несоблюдение которых влечет ответственность. По мнению профессора права Колледжа Европы, советника Европейской комиссии и члена Комиссии по этике данных Правительства Германии Пауля Немица, это обусловлено явным конфликтом интересов между корпорациями и обществом [7].

Очевидно, что необходимо постепенно переходить от согласования базовых этических принципов к формированию общей модели правового регулирования. Причем, как и в ряде других случаев, оптимальным является путь, при котором первоначально модель регулирования формируется именно на международном, а не на национальном уровне. Такой подход позволит во многом нивелировать риски, сопутствующие процессам разработки и применения технологий искусственного интеллекта.

К числу основных проблем, стоящих перед юридической наукой, можно отнести следующие.

1. Возможности предиктивной (прогнозной) аналитики в юриспруденции. Суть данной технологии состоит в том, что на основе идентичных или подобных судебных дел она может сформировать прогноз по наиболее вероятному решению. Увидев, что вероятность выигрыша является невысокой, клиент, к примеру, может отказаться от иска. Данный инструмент может быть полезен также судьям и другим участникам процесса. Вместе с тем границы и условия применения данной технологии требуют урегулирования.

2. Изменения в принципах организации и функционирования органов правосудия в связи с развитием технологий искусственного интеллекта. Такие технологии должны обеспечивать уважение прав и свобод человека, недопустимость дискриминации, транспарентность (методы обработки данных должны быть доступными и понятными), качество и безопасность отправления правосудия, беспристрастность (должен быть разрешен внешний аудит) и контроль пользователя, который предполагает, что окончательное принятие решения остается за человеком, т.е. – за правоприменителем.

3. Очевидной проблемой являются неизвестные ранее праву риски дискриминации при принятии решений искусственным интеллектом. К примеру, решение о выдаче кредита или о приеме на работу принимается на основе алгоритма. Но если алгоритм случайно либо намеренно создан некорректно, он может дискриминировать заявителей по полу, расе, вероисповеданию и т.д.

4. Проблемы, связанные с безопасностью персональных данных и конфиденциальной информации: возможности искусственного интеллекта по поиску, обработке и анализу данных значительно превосходят возможности человека. Системы искусственного интеллекта могут получать информацию через многочисленные датчики, сенсоры, записывающие устройства. С развитием «интернета вещей» («умный город», «умный дом» и т.д.) обмен информацией между различными системами создает среду, которая является для человека совершенно новой и, соответственно, требует новых правовых инструментов.

5. Правовое регулирование создания и использования алгоритмов машинного обучения. В ряде случаев пользователь таких алгоритмов, а также лицо, в отношении которого принимается юридическое решение, не знает, каким образом искусственный интеллект приходит к определенному результату (машинное обучение по принципу черного ящика), что может создавать риски для защиты прав и законных интересов физических и юридических лиц.

6. Теоретические и практические проблемы создания машиночитаемого права – законодательства, переведенного в программный год и исполняемого без участия человека.

Это лишь небольшая часть научно-правовых проблем, стоящих перед международным сообществом в связи с развитием систем искусственного интеллекта. Выработка общих принципов и подходов к их решению – вызов не будущего, а настоящего, поскольку практическое использование такого рода систем уже объективная реальность.

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ:
1. Хисамова, З.И. Правовое регулирование искусственного интеллекта / З.И. Хисамова, И.Р. Бегишев // Baikal Research Journal: Электронный научный журнал Байкальского государственного университета. – 2019. – Т. 10. – № 2. – Режим доступа: https://cyberleninka.ru/article/n/pravovoe-regulirovanie-iskusstvennogo-intellekta/viewer. – Дата доступа: 27.06.2021.
2. Бочков, С.И. Об Окинавской хартии глобального информационного общества и задачах развития российских систем коммуникации / С.И. Бочков, Г.И. Макаренко, А.В. Федичев // Правовая информатика. – 2018. – № 1. – С.4–14.
3. OECD Council Recommendation on Artificial Intelligence // OECD Legal Instruments [Electronic resource]. – Mode of access: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449 – Date of access: 27.06.2021.
4. G20 Ministerial Statement on Trade and Digital Economy // European Commission [Electronic resource]. – Mode of access: https://trade.ec.europa.eu/doclib/docs/2019/june/tradoc_157920.pdf. – Date of access: 27.06.2021.
5. Ethics guidelines for trustworthy AI // European Commission [Electronic resource]. – Mode of access: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai. – Date of access: 27.06.2021.
6. WHITE PAPER On Artificial Intelligence - A European approach to excellence and trust // European Commission [Electronic resource]. – Mode of access: https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf. – Date of access: 27.06.2021.
7. Paul Nemitz: Laws rule over tech, not the other way around // Find Your Digital Self [Electronic resource]. – Mode of access: https://blog.fyself.com/paul-nemitz-laws-rule-over-tech-not-the-other-way-around/ – Date of access: 27.06.2021.