В Нью-Йорке приговоры выносит ИИ
Эксперимент по использованию искусственного интеллекта в судебной системе был остановлен на полгода из-за пандемии коронавируса, но теперь вновь начинает работу. В Нью-Йорке возобновили работу пилотного проекта по использованию искусственного интеллекта в судебной системе - алгоритм рекомендует меру пресечения. Власти надеются на сокращение нагрузки на местные тюрьмы и рассчитывают. что это позволит избежать предвзятости. В декабре 2018 года Европейская комиссия по эффективности правосудия Совета Европы одобрила Европейскую этическую хартию, содержащую принципы использования искусственного интеллекта в судебной и правоохранительной системах. Это первый международный акт, и неизведанную сферу. В хартии говорится о необходимости пользовательского контроля: судья вправе не согласиться с решением, предложенным ИИ, а любой участник спора имеет право оспорить такое решение и потребовать суда без применения искусственного интеллекта. В Нью-Йорке такая система призвана освободить тюрьмы, которые, как считают власти, переполнены из-за излишнего консерватизма американских судей. Эксперимент по использованию ИИ в судебной системе был остановлен на полгода из-за пандемии коронавируса, но теперь вновь начинает работу. Газета Wall Street Journal пишет, что алгоритмы, которые были разработаны на основе широкой базы данных по уже завершенным делам, могут дать судьям две рекомендации: отпустить под залог или заключить под стражу до суда. База данных состоит из 1,6 миллиона уголовных дел, закрытых в 2009-2015 годах. В ней содержится не только стандартная личная информация, но и такие детали, как добровольно ли подозреваемый сообщал свой домашний телефон и адрес полицейским при задержании. Эта информация оказалась одной из определяющих для алгоритма, поскольку, как выяснили исследователи, те, кто делал это добровольно, чаще приходили на судебное заседание сами, поэтому могут быть отпущены под залог. Над проектом работали две независимые друг от друга компании. После того, как они создали несколько десятков моделей поведения, разработчики объединили силы, чтобы оставить преимущественно только совпавшие модели. В итоге была разработана система, отчасти похожая на рейтинг оценки кредитоспособности физических лиц, уже давно используемый в США. Если программа, которая создавалась в 2013 году, отпускала под залог не более 40 процентов подозреваемых, то новый алгоритм - 86,7 процента чернокожих, 89,7 процента белых и 90,7 процента латиноамериканцев. Подобная система, применяемая в штате Нью-Джерси в 2014 году, показала свою эффективность, сократив аресты почти вполовину. Однако та система не могла преодолеть расовое неравенство: под стражу взят каждый третий белый и каждый второй черный. В этой связи год назад около 30 ученых и исследователей из ведущих американских университетов написали открытое письмо, в котором выразили "серьезные опасения". "Целые десятилетия исследований показали, что за одни и те же преступления афроамериканцев или латиноамериканцев арестовывали, осуждали или давали более строгие приговоры чаще, чем белых", - говорится в письме. Таким образом, алгоритмы, основанные на анализе таких приговоров, изначально являются предвзятыми. |
Комментарии (0) | |