• +375 29 589 42 24

Цифровая трансформация системы отправления правосудия: новые вызовы

Толочко, О.Н. Цифровая трансформация системы отправления правосудия: новые вызовы / О.Н. Толочко // Проблемы цифровизации государственного управления: Республика Беларусь и зарубежный опыт [Электронный ресурс] : материалы междунар. круглого стола. Минск, 15 октября 2022 г. / Белорус. гос. ун-т : редкол.: В. С. Михайловский (гл. ред.); Л. А. Краснобаева, А. В. Шидловский. – Минск : БГУ, 2022. – 1 электрон. опт. диск (CD-ROM).

УДК 340
ЦИФРОВАЯ ТРАНСФОРМАЦИЯ СИСТЕМЫ ОТПРАВЛЕНИЯ ПРАВОСУДИЯ: НОВЫЕ ВЫЗОВЫ
О. Н. Толочко
Белорусский государственный университет,
доктор юридических наук, доцент
Аннотация. Цифровая трансформация не ограничивается техническими средствами помощи органам правосудия, а представляет собой фундаментальный вызов современной правовой системе. В статье анализируются качественные изменения, происходящие в системе отправления правосудия и обусловливающие необходимость совершенствования норм права, регулирующих процесс и пределы использования технологий искусственного интеллекта в судопроизводстве. По мнению автора, в отсутствие законодательного регулирования судьям надлежит руководствоваться принципом предосторожности и Бангалорскими принципами поведения судей, что несомненно повысит культуру отправления правосудия и доверие к нему со стороны общества.
Ключевые слова: цифровая трансформация, правосудие, технологии искусственного интеллекта, базы данных, принцип предосторожности
DIGITAL TRANSFORMATION OF JUSTICE SYSTEM: NEW CHALLENGES
Annotation. Digital transformation is not limited to technical means of assisting the judiciary, but represents a fundamental challenge to the modern legal system. The article analyzes the qualitative changes taking place in the system of administration of justice and necessitating the improvement of the rules of law governing the process and limits of the use of artificial intelligence technologies in legal proceedings. According to the author, in the absence of legislative regulation, judges should be guided by the precautionary principle and the Bangalore principles of judicial conduct, which will undoubtedly increase the culture of the administration of justice and public confidence in it.
Key words: digital transformation, justice, artificial intelligence technologies, databases, precautionary principle
Достижения в области информационно-коммуникационных технологий, полностью изменив систему государственного управления, оказали огромное влияние и на работу судов и правоохранительных органов. На протяжении трёх десятков лет информационно-коммуникационные технологии повышают прозрачность и эффективность работы органов правопорядка и в значительной мере изменяют практику их работы, в частности, стимулируют переход на безбумажное электронное судопроизводство. Компьютерные программы и алгоритмы, системы искусственного интеллекта используются во всё большем количестве процедур и процессуальных действий. Цифровые технологии облегчают и упрощают работу и в целом позитивно сказываются на работе судебных и правоохранительных органов.
Вместе с тем, в последнее время всё большее распространение в мире получают технологии искусственного интеллекта, которые могут оказывать непосредственное влияние на процесс вынесения судебных решений. Речь идет, прежде всего, о технологиях прогноза (предиктивной аналитики), которые посредством машинного обучения могут формировать прогнозы будущих судебных решений или актов правоохранительных органов. Компьютер анализирует материалы дел: процессуальные документы, судебные решения и т.д., и на основе анализа этого набора обучающих данных устанавливает статистические сопоставления между обстоятельствами дел и соответствующими судебными или процессуальными актами. Чем больше исходных данных обработает машина, тем более точные прогнозы она сможет формировать по новым делам. Таким образом, системы искусственного интеллекта «учатся» производить решения, которые по таким делам могли бы принять судьи. Технологии предиктивного правосудия, в отличие от, например, технологий цифрового обмена данными и документами, может оказывать прямое влияние на вынесение судебных решений, причём это влияние может иметь как позитивный, так и нежелательный характер.
Как отмечает старший научный сотрудник Института изучения судебных систем Национального исследовательского совета Италии Ф. Контини, который в свое время участвовал в разработке Этической хартии об использовании искусственного интеллекта в судебных системах Совета Европы и Справочного руководства по укреплению честности, неподкупности и потенциала судебных органов управления ООН по наркотикам и преступности, – потенциальное воздействие предиктивных технологий на отправление правосудия можно оценить, изучив проблемы, создаваемые уже используемыми цифровыми технологиями, например, такими как системы делопроизводства и электронной подачи документов. Исследователь приводит в пример случай в Англии и Уэльсе, когда простая арифметическая ошибка в официальной форме документа, используемой в делах о разводе, за 19 месяцев привела к неправильному расчету алиментов в 3600 делах [1]. Однако основная проблема, как отмечает автор, заключается не в самой ошибке искусственного интеллекта, а в причинах, по которым Министерство юстиции и лица, использовавшие эту форму, полтора года ее не замечали. Пользователи любой системы обычно смотрят на её интерфейс и возможности, не вникая в детали их внутренней работы. Следовательно, «встроенные» ошибки могут в значительной мере влиять на качество принимаемых решений и, в конечном счёте, на качество отправления правосудия.
Широко применяемые в настоящее время во многих странах Европы и США судебные технологии обеспечивают доступ к массиву данных о судебных делах для повышения прозрачности. Однако процессы обработки, внутренней оценки системами этих данных оценить и проконтролировать извне довольно сложно. Поэтому на повестке стоит создание эффективных правовых механизмов контроля над внутренней работой информационно-коммуникационных технологий и алгоритмов, обрабатывающих данные.
В некоторых странах уже используются технологии, выдающие рекомендации относительно принятия решений о предварительном заключении под стражу. Они используют алгоритмы, вычисляющие вероятность рецидива, и оценивают, насколько вероятно совершение обвиняемым преступления, если не заключить его под стражу. Такая оценка ставит судей в непростое положение. Очевидно, что судья должен быть вправе не согласиться с оценкой компьютера. Однако каковы будут последствия в том случае, если обвиняемый не будет заключен под стражу и совершит преступление?
Наиболее продвинутым в применении такого рода технологий в судопроизводстве является в настоящее время Китай. В июле 2022 г. искусственный интеллект впервые составил текст обвинительного заключения, которое было предъявлено в суде. Разработанная Китайской академией наук система машинного обучения Systemof Systems (SoS) сканирует судебные дела, рекомендует судье законодательные акты, составляет процессуальные документы и даже исправляет то, что она считает ошибками в приговоре. В соответствии с предписанием Верховного Народного Суда КНР с системой консультируется каждый судья по каждому делу. Если судья не согласен с рекомендациями, то он должен представить ей письменное объяснение для учёта и проверки. Система обучалась на 17 тысячах дел, рассмотренных в судах Шанхая с 2015 по 2020 годы. Она выносит обвинения, основываясь на тысяче характерных черт, которые сама выявляет в судебных документах по конкретным уголовным делам, при этом точность составляет 97%. По сообщениям из китайских источников, внедрение искусственного интеллекта в судебную систему позволило сократить среднюю нагрузку на судью более чем на 33% и сэкономить 1,7 млрд рабочих часов для граждан КНР в течение 2 лет. Кроме того сообщается, что за 2019–2021 годы было сэкономлено более 45 млрд долларов, что эквивалентно половине всех гонораров адвокатов в Китае в 2021 г. По информации разработчиков, SoS может выдвигать обвинения по восьми наиболее распространённым в КНР преступлениям: хищение, мошенничество, мошенничество с кредитными картами, организация азартных игр, нарушение ПДД, нанесение телесных повреждений и создание препятствий представителям властей. Разработчики считают, что в скором времени искусственный интеллект сможет выносить обвинения и по более сложным с правовой точки зрения делам [2].
Вместе с тем, любая технология искусственного интеллекта основывается на обработке уже имеющихся данных. Компьютер может просчитать вероятность рецидива с гораздо большей точностью, чем судья. Искусственный интеллект не подвержен эмоциям и коррупции, он может чётко придерживаться законодательства и выносить решения с учётом многих факторов, включая данные, характеризующие участников процесса. Система может оперировать большими данными из архивов государственных служб, может быстро обрабатывать данные и учитывать значительно более факторов, чем судья-человек [3].
Однако, во-первых, вывод, сделанный на основе предшествующего опыта и имеющихся данных всегда вероятностен. Во-вторых, большой вопрос, на основе каких посылок и установок машина делает конечный вывод? Например, в алгоритм может быть заложена б?льшая вероятность совершения правонарушения чернокожим или меньшая – женщиной, что может отражать сложившиеся стереотипы и предубеждения. В последние годы научная общественность и средства массовой информации обсуждают феномен, получивший название «AI bias», что можно перевести как «необъективность искусственного интеллекта» или «пристрастность искусственного интеллекта» [4]. Расизм и сексизм, присущий многим действующим алгоритмам, серьёзно обсуждается в профессиональных изданиях, таких как «Engadget» [5], «TechTalks» [6], а также в массовых СМИ, таких как «TheGuardian» [7], «TheNew York Times» [8].Кроме того, отсутствие эмоциональной составляющей при рассмотрении судебных дел не на пользу правосудию.
Очевидно, что, как результат научно-технического прогресса, технологии искусственного интеллекта никуда не уйдут, и их применение в судопроизводстве будет только расширяться. Поэтому на повестке стоит разработка действенных механизмов контроля за всеми применяющимися алгоритмами, будь то системы делопроизводства, формы документов или более сложные программы, помогающие судьям выносить решения.
Наиболее остро проблема контроля стоит в отношении технологий, основанных на машинном обучении. Прогнозы в таких системах основываются на алгоритмах, которые со временем изменяются: машина «учится» на основе собственного опыта. Когда алгоритм изменяется, человек уже не может знать, как он работает и почему машина ведет себя определенным образом. Вопрос обеспечения контроля и подотчетности технологий искусственного интеллекта, основанных на машинном обучении, при нынешнем развитии науки и техники остается открытым.
Поэтому до тех пор, пока технические и правовые решения не найдены, судьям надлежит руководствоваться принципом предосторожности, т.е. при отсутствии надёжных данных избегать неоправданных рисков. Принцип предосторожности закреплён в Этической хартии об использовании искусственного интеллекта в судебных системах Совета Европы. Однако, как именно он будет реализовываться на практике, пока не очень понятно. Эта задача стоит не только перед юристами. Она может быть выполнена при участии специалистов из разных областей – программистов, психологов, социологов, экономистов и др., и при условии широкого мониторинга работы систем искусственного интеллекта и их оценки на предмет соблюдения ключевых ценностей, закреплённых в Бангалорских принципах поведения судей [9]: независимость, объективность, честность и неподкупность, соблюдение этических норм, равенство, компетентность и старательность. Только при таких условиях цифровые технологии не приведут к дегуманизации правосудия, а наоборот будут способствовать повышению доверия со стороны общества.
1. Контини, Ф. Искусственный интеллект: Новый способ ненадлежащего воздействия на судебные органы? / Ф. Контини // UNODC [Электронный ресурс]. – Режим доступа: https://www.unodc.org/dohadeclaration/ru/news/2019/06/artificial-intelligence_-a-new-trojan-horse-for-undue-influence-on-judiciaries.html. – Дата доступа: 01.09.2022.
2. China’s AI-Enabled ‘Smart Courts’ To Recommend Laws & Draft Legal Docs; Judges To Take Consult AI Before Verdict // The Eurasian Times [Electronic resource]. – Mode of access: https://eurasiantimes.com/chinas-ai-enabled-smart-court-to-recommend-laws-judges/. – Date of access: 02.09.2022.
3. Технологии искусственного интеллекта // Агентство промышленного развития Москвы [Электронный ресурс]. – Режим доступа: https://apr.moscow/content/data/5/%D0%A2%D0%B5%D1%85%D0%BD%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D0%B8%20%D0%B8%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D0%BE%D0%B3%D0%BE%20%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D0%B0.pdf. – Дата доступа: 02.09.2022.
4. Сексизм и шовинизм искусственного интеллекта: почему так сложно его побороть? // TAdviser. Государство. Бизнес. Технологии [Электронный ресурс]. – Режим доступа: https://www.tadviser.ru/index.php/%D0%A1%D1%82%D0%B0%D1%82%D1%8C%D1%8F:AI_bias_(%D0%BF%D1%80%D0%B5%D0%B4%D0%B2%D0%B7%D1%8F%D1%82%D0%BE%D1%81%D1%82%D1%8C_%D0%B8%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D0%BE%D0%B3%D0%BE_%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D0%B0). – Дата доступа: 02.09.2022.
5. Ip, C. In 2017, society started taking AI bias seriously / C. Ip // Engadget [Electronic resource]. – Mode of access: https://www.engadget.com/2017-12-21-algorithmic-bias-in-2018.html. – Date of access: 02.09.2022.
6. Dickson, B. What is algorithmic bias? / B. Dickson // TechTalks [Electronic resource]. – Mode of access: https://bdtechtalks.com/2018/03/26/racist-sexist-ai-deep-learning-algorithms/. – Date of access: 02.09.2022.
7. Naughton, J. Even algorithms are biased against black men / J. Naughton // The Guardian [Electronic resource]. – Mode of access: https://www.theguardian.com/commentisfree/2016/jun/26/algorithms-racial-bias-offenders-florida. – Date of access: 02.09.2022.
8. Tufekci, Z. The Real Bias Built In at Facebook / Z. Tufekci // The New York Times [Electronic resource]. – Mode of access: https://www.nytimes.com/2016/05/19/opinion/the-real-bias-built-in-at-facebook.html. – Date of access: 02.09.2022.
9. Бангалорские принципы поведения судей 2002 г. // ООН [Электронный ресурс]. – Режим доступа: https://www.un.org/ru/documents/decl_conv/conventions/bangalore_principles.shtml. – Дата доступа: 04.09.2022.

Толочко, О.Н. Цифровая трансформация системы отправления правосудия: новые вызовы / О.Н. Толочко // Проблемы цифровизации государственного управления: Республика Беларусь и зарубежный опыт [Электронный ресурс] : материалы междунар. круглого стола. Минск, 15 октября 2022 г. / Белорус. гос. ун-т : редкол.: В. С. Михайловский (гл. ред.); Л. А. Краснобаева, А. В. Шидловский. – Минск : БГУ, 2022. – 1 электрон. опт. диск (CD-ROM).