Теперь Кью работает в режиме чтения

Мы сохранили весь контент, но добавить что-то новое уже нельзя

Насколько этично использовать искусственный интеллект в расследовании преступлений?

Юриспруденция+2
Анонимный вопрос
  ·   · 7,1 K
Студентка МГУ им. М. В. Ломоносова  · 30 авг 2021
В современном мире активно развиваются технологии, развивается искусственный интеллект. Искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Таким образом, искусственный интеллект представляет собой моделирование процессов человеческого мышления с целью решения каких-либо задач. Он возник под влиянием цифровизации, автоматизации деятельности человека и технологической революции, став мощным инструментом в расследовании и предупреждении преступлений. Создание баз данных, внедрение экспертных систем, внедрение информационно-поисковых систем и обработка информации с дальнейшим анализом с помощью искусственного интеллекта позволяет повышать эффективность борьбы с преступностью. Так, например, для создания версий о личности преступника разрабатывалась программа «ФОРВЕР»; автоматизированная система «Сейф» позволяет получать информацию о хищениях денежных средств; система «Портрет» содержит информацию о внешности преступников; система «Спрут» позволяет устанавливать связи преступников с другими людьми. Эффективными в вопросе применения искусственного интеллекта являются искусственные нейронные сети. Относительно недавно в ноябре 2020 года была опубликована новость, что МВД внедрит нейросети для поиска серийных убийц и создания «фотороботов» по ДНК правонарушителя. Такое решение было принято на стратегической сессии, проводимой для руководителей цифровой информации нескольких ведомств (в том числе и МВД). МВД рассчитывает провести научно-исследовательские работы по внедрению искусственного интеллекта для определения внешности преступника в 2021–2022 годах, в промышленную эксплуатацию система должна поступить в 2024 году. В будущем такую систему планируют использовать в деятельности Следственного комитета, ФСБ, ФСИН, а также экспортировать криминалистические технологии в другие страны.
Вместе с тем, с применением искусственного интеллекта, в том числе и в уголовной отрасли, возник ряд проблем - прежде всего этических. Даже потребовалось правовое регулирование этических проблем применения искусственного интеллекта, для чего была создана Европейская этическая хартия об использовании искусственного интеллекта в судебных системах и окружающих их реалиях, принятая на 31-м пленарном заседании ЕКЭП в Страсбурге 3-4 декабря 2018 года. В документе обращается особое внимание на соблюдение прав человека, запрет дискриминации, обеспечение качества и безопасности технологий посредством проведения оценки техническими специалистами и юристами, прозрачность применения разработок, подотчетность пользователю. Также подчеркивается, что значительных методологических мер предосторожности требует в том числе и использование алгоритмов в уголовном расследовании с целью выявления мест совершения уголовных преступлений.
В расследовании преступлений часто используются технологии распознавания лиц, которые являются одним из проявлений искусственного интеллекта. Главная необходимость для внедрения данной технологии - это непосредственное обеспечение безопасности государства и общества. Так, например, благодаря данной технологии во время чемпионата мира по футболу в 2018 году было задержано 98 человек, которые числились в базах правоохранительных органов. Технологии распознавания лиц могут использоваться и для защиты банковских данных, проверки лиц в черном списке в том или ином заведении. При обнаружении лица, изображение которого есть в базе данных лиц, находящихся в розыске, система уведомляет об этом и тем самым способствует расследованию преступлений. Таким образом, мы видим эффективность использования данных технологий, особенно при осуществлении правоохранительной деятельности. Технологии искусственного интеллекта помогают в оценке информации, моделировании событий, детализации преступления, распознавании образов, удостоверении подлинности документов, оценке достоверности и достаточности доказательств и в другой деятельности по расследованию преступлений.
С другой стороны, остается открытым вопрос об этической стороне использования тех же самых технологий распознавания лиц. Самое очевидно – в процессе функционирования данной системы технологии существует возможность вторжения в частную жизнь лиц, нарушая тем самым право на неприкосновенность личной жизни (ст. 23, ст. 24, ст. 56 Конституции РФ; ст. 8 Конвенции о защите прав человека и основных свобод). Такая система при ее злоупотреблении может значительно ограничить демократические свободы граждан, перерасти в самоуправство, нарушив конфиденциальность информации о жизни граждан. Именно поэтому важно соблюдать соотношение публичного и частного интересов, не ставить какой-то из интересов главнее другого – стараться их соединить воедино при применении искусственного интеллекта, тем самым находить верный баланс.
Этическая проблематика искусственного интеллекта заключается и в неправильном распознавании личности и привлечении добросовестного лица к ответственности или к применению мер пресечения. Хоть процент правильности распознавания постепенно растет с развитием технологий, ошибки в практике случаются и нередко. В том числе нередки данные случаи по отношению к людям других рас, меньшинств или даже противоположному полу. Такое положение дел также может вылиться в нарушение конституционных прав и дискриминацию. Например, при применении такой меры пресечения, как заключение под стражу в США (и некоторых других странах) используется технология, которая оценивает вероятность рецидива, если оставить лицо без заключения под стражу. Организация ProPublica сравнила реальный рецидивизм с предполагаемым технологией. Анализ показал, что «вероятность оценки рецидива темнокожих обвиняемых ошибочно завышается намного чаще, чем вероятность рецидива белых обвиняемых, а вероятность рецидива белых обвиняемых ошибочно занижается чаще, чем вероятность рецидива темнокожих обвиняемых». Другой пример: в США программа прогнозирования преступлений Predpol, целью которой является прогнозирования места и участников преступления, обучалась на искаженной выборке, поэтому посылала полицию чаще всего в места, населенные представителями этнических меньшинств. Согласно мнению профессора этики и политической философии Монреальского университета и одного из директоров отдела этики и политики Исследовательского центра по проблемам этики Марка-Антуана Дилака, искусственный интеллект может затрагивать расовое профилирование, прогнозирование поведения и даже определение сексуальной ориентации людей, поэтому такие важные вопросы этического свойства требуют выработки законодательства, способного обеспечить ответственный подход к развитию технологий искусственного интеллекта. Данная проблема предвзятости искусственного интеллекта поистине важна не только в плане нарушения прав и свобод человека и гражданина, но и в плане увеличения недоверия общества к подобным системам.
Важно, чтобы передаваемая информация должна оставаться конфиденциальной, известной непосредственно только необходимому лицу, государственному органу, в некоторых случаях должно предполагаться и согласие лица на использование его информации, его персональных данных. В публичных местах (по крайней мере, в большинстве из них) должны предупреждать о применении технологий распознавания лиц, объектов и их местоположений. Информация о лицах должна содержаться в специальных местах и не подлежать широкому распространению в обществе, тем самым должна обеспечиваться безопасность информации о лицах. Так, в 2018 году разразился скандал из-за того, что в Новом Орлеане тестировалась программа компании Palantir для вычисления людей, которые могут совершить насильственное преступление или стать его жертвой, в полиции на протяжении шести лет без проведения конкурсов на госзакупку. Публичного согласования по поводу этого не было, сделка была представлена как благотворительное пожертвование и использовалась без официального разрешения. Даже ключевые члены городского совета, которые контролировали доступ к информации и данным, не были уведомлены о применении технологии. Компания получила доступ к закрытым данным, что вызвало в обществе резонанс, и программу свернули.
Важно подчеркнуть, что должны быть закреплены гарантии защиты прав человека при использовании искусственного интеллекта, и поэтому данная сфера так нуждается в нормативно-правовом регулировании, а для подтверждения результатов применения технологий распознавания лица должна проводиться судебно-портретная экспертиза и необходимый анализ предъявленной технологией информации.
Хочется сказать, что искусственный интеллект действительно эффективен, особенно в уголовной сфере, но нужно понимать, что в «плохих руках» существует большая опасность для прав и свобод граждан, может происходить и утечка информации, кибернетический взлом. Британская правозащитная организация Liberty выступила с заявлением, что технологии автоматического распознавания лиц – угроза демократическому строю, так как сотрудники полиции зачастую слишком доверяют технологиям и в итоге происходят незаконные аресты и задержания. Их поддержала и британская газета Guardian. А в Сан-Франциско в 2019 году проблеме распознавания лиц постарались уделить должное внимание и даже запретили идентифицировать преступников в реальном времени. Умные камеры в режиме реального времени сохранились только на объектах федерального значения, таких как морской порт, аэропорты, метро и некоторых других, в то время как было принято решение об усовершенствовании данной технологии для дальнейшего использования и на других объектах. В России тоже не все поддерживают использование данных технологий. Например, в 2019 году организация РосКомСвобода требовала ввести мораторий на системы распознавания лиц до тех пор, пока не будет обеспечена полная прозрачность и безопасность их использования для граждан, непротиворечивость статьям Конституции и федеральному закону «О персональных данных» от 27.07.2006 г. № 152 – ФЗ.
Еще один вопрос, возникающий в рамках этики применения искусственного интеллекта - ответственность вследствие ошибок и нарушений искусственным интеллектом. Данная тема широко обсуждается, высказываются различные мнения. Так, проблема освещается в труде И. Н. Мосечкина «Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления», где автор рассуждает об определении искусственного интеллекта как вещи или же как «личности». Среди возможных субъектов для привлечения к уголовной ответственности, как правило, выделяют производителя искусственного интеллекта, производителя продукции с данным искусственным интеллектом, продавца продукции с данным искусственным интеллектом, пользователя продукции, хакеров или же сам искусственный интеллект при условии наделения его правосубъектностью. О. П. Кузнецов, А. В. Незнамов и многие другие ученые считают, что искусственный интеллект никоим образом не может нести ответственность, ответственность несет исключительно человек. С другой стороны, существует и противоположная точка зрения, которая заключается в том, что искусственный интеллект тоже может отвечать за свои ошибки (такого мнения придерживается, например, Р. В. Душкин).
Этические проблемы использования искусственного интеллекта в современном мире широко обсуждаются и предпринимаются попытки урегулирования вопросы использования искусственного интеллекта по всему миру, в том числе и в нашей стране. Так, был издан Указ Президента РФ от 10.10.2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года»), где вниманию подлежали принципы развития и использования технологий искусственного интеллекта. К таковым принципам относятся защита прав и свобод человека, безопасность, прозрачность, технологический суверенитет, целостность инновационного цикла, разумная бережливость, поддержка конкуренции. Кроме того, В. В. Путин в выступлении на пленарном заседании конференции по искусственному интеллекту в ноябре 2019 г. в Москве отметил значимость развития технологий и уделил внимание тому, что искусственны интеллект обладает огромным потенциалом в любых направлениях человеческой жизнедеятельности.
Таким образом, урегулирование применения искусственного интеллекта требует большой доработки как в практическом применении, так и в нормативно-правовом закреплении. Необходимо учитывать, что статистические сопоставления искусственного интеллекта дают прогнозы, которые не нужно принимать на слепую веру. Кроме того, искусственный интеллект опирается на средства формальной логики, но в правовой оценке ситуации присутствуют и ценностные критерии, находящие выражение в принципах права и применении аналогии права и аналогии закона, что довольно сложно интерпретировать искусственному интеллекту. Вместе с тем нельзя отказываться от применения искусственного интеллекта при расследовании преступлений, так как он существенно помогает в деятельности следователей и дознавателей, ускоряет процесс расследования преступлений, как и нельзя говорить о том, что при использовании искусственного интеллекта должна перестать осуществляться деятельность человека в расследовании преступлений. Именно поэтому важен контроль за применением искусственного интеллекта и особая внимательность при взвешивании интересов в безопасности общества и личной жизни граждан.
Вероника, свяжитесь со мной в ТГ по поводу вашей замечательной победы в конкурсе на Кью @euliania. Спасибо
Юрист в сфере банкротства, основная специализация...  · 23 июл 2021  ·
ReadInLaw
Если в контексте данного вопроса, под расследованием преступления, понимается сбор и формирование доказательной базы, с целью передачи дела в суд, то глобально ничего и не поменяется. Сейчас сбор доказательств осуществляется... Читать далее
О юриспруденции пишу в своём Telegram канале. Подписывайтесь Перейти на t.me/ReadInLaw
Я думаю, при всей "объективности" допроса с помощью робота- видеозапись допроса, анализ фактов и доказательств... Читать дальше
Юриспруденция. Работаю в правоохранительных...  · 17 июл 2021
Современная преступность очень активно использует самые передовые технологии, очевидно и ожидаемо, что правоохранительные органы должны отвечать адекватно и в том числе путем внедрения в практику достижений в области искусственн... Читать далее
1 эксперт согласен
Я скептически отношусь к понятию искусственный интеллект ассоциируя его скорее со сверхсложным программируемым каль... Читать дальше
Первый
Выпускник Юридического факультета МГУ имени М.В.Ло...  · 16 авг 2021
Задача оптимизации процесса расследования за счёт обращения к достижениям научно-технического прогресса не нова: уже достаточно давно применяются на практике и научно описаны средства компьютеризации процесса расследования, в... Читать далее
Эдуард, свяжитесь со мной в ТГ по поводу вашей замечательной победы в конкурсе на Кью @euliania. Спасибо
Первый
Для того, чтобы ответить на любой вопрос, нужно, для начала, понять его существо. Из вопроса следует, что ИИ может лишь использоваться в расследовании, но он, естественно, его не осуществляет сам по себе. Расследование... Читать далее
Настораживает, что признав за машиной свойство 'обладать Интеллектом' вы оставляете критерий на усмотрение нек.абст... Читать дальше
Первый
Основатель проекта "legal.logos" Наши контакты:...  · 26 авг 2021
На сегодняшний день в деятельности современного следователя можно выделить основные элементы, к которым могут быть применены возможности систем искусственного интеллекта: поиск ориентирующей и доказательственной информации... Читать далее
очень хороший и разносторонний ответ. Не соглашусь пожалуй разве что вот с этой формулировкой: "Искусственный... Читать дальше
Первый
Занимаюсь уголовным правом и криминологией...  · 1 авг 2021
Вопросы этики – практически мертвая зона в условиях отсутствия общепринятого и достоверного понимания таких категорий как мораль, нравственность и т.д. Этику сложно формализовать. А именно данный феномен имеет большое значение... Читать далее
Профессиональный ученый, интересы самые разные...  · 4 окт 2021
Вопрос не в "этичности", а в адекватности использования. Как инструмент в помощь следствию - вполне приемлемо. Как предрешение виновности, принятие его работы в качестве несомненной истины - неприемлемо. ИИ может подсказать... Читать далее
Первый
Юрист-международник, интересно практически все-пси...  · 25 июл 2021
Этично. И нужно. Чтобы расследовать и раскрыть преступление необходимо использовать все средства и методы. На войне все средства хороши. Единственное, я всегда смотрела на искусственный интеллект как на супер помощника, этакого... Читать далее
Как это верно! Есть такое методическое средство- Допрос с устрашением 3 степени. Многие правоохранители раньше... Читать дальше
Первый
Должность: учитель истории Деятельность:...  · 31 авг 2021
В последнее время в России и мире резко увеличилось число преступлений. Причём стала набирать обороты тенденция привлечения к расследованию противоправных деяний искусственного интеллекта. Главная причина этого процесса... Читать далее