В современном мире активно развиваются технологии, развивается искусственный интеллект. Искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Таким образом, искусственный интеллект представляет собой моделирование процессов человеческого мышления с целью решения каких-либо задач. Он возник под влиянием цифровизации, автоматизации деятельности человека и технологической революции, став мощным инструментом в расследовании и предупреждении преступлений. Создание баз данных, внедрение экспертных систем, внедрение информационно-поисковых систем и обработка информации с дальнейшим анализом с помощью искусственного интеллекта позволяет повышать эффективность борьбы с преступностью. Так, например, для создания версий о личности преступника разрабатывалась программа «ФОРВЕР»; автоматизированная система «Сейф» позволяет получать информацию о хищениях денежных средств; система «Портрет» содержит информацию о внешности преступников; система «Спрут» позволяет устанавливать связи преступников с другими людьми. Эффективными в вопросе применения искусственного интеллекта являются искусственные нейронные сети. Относительно недавно в ноябре 2020 года была опубликована новость, что МВД внедрит нейросети для поиска серийных убийц и создания «фотороботов» по ДНК правонарушителя. Такое решение было принято на стратегической сессии, проводимой для руководителей цифровой информации нескольких ведомств (в том числе и МВД). МВД рассчитывает провести научно-исследовательские работы по внедрению искусственного интеллекта для определения внешности преступника в 2021–2022 годах, в промышленную эксплуатацию система должна поступить в 2024 году. В будущем такую систему планируют использовать в деятельности Следственного комитета, ФСБ, ФСИН, а также экспортировать криминалистические технологии в другие страны.
Вместе с тем, с применением искусственного интеллекта, в том числе и в уголовной отрасли, возник ряд проблем - прежде всего этических. Даже потребовалось правовое регулирование этических проблем применения искусственного интеллекта, для чего была создана Европейская этическая хартия об использовании искусственного интеллекта в судебных системах и окружающих их реалиях, принятая на 31-м пленарном заседании ЕКЭП в Страсбурге 3-4 декабря 2018 года. В документе обращается особое внимание на соблюдение прав человека, запрет дискриминации, обеспечение качества и безопасности технологий посредством проведения оценки техническими специалистами и юристами, прозрачность применения разработок, подотчетность пользователю. Также подчеркивается, что значительных методологических мер предосторожности требует в том числе и использование алгоритмов в уголовном расследовании с целью выявления мест совершения уголовных преступлений.
В расследовании преступлений часто используются технологии распознавания лиц, которые являются одним из проявлений искусственного интеллекта. Главная необходимость для внедрения данной технологии - это непосредственное обеспечение безопасности государства и общества. Так, например, благодаря данной технологии во время чемпионата мира по футболу в 2018 году было задержано 98 человек, которые числились в базах правоохранительных органов. Технологии распознавания лиц могут использоваться и для защиты банковских данных, проверки лиц в черном списке в том или ином заведении. При обнаружении лица, изображение которого есть в базе данных лиц, находящихся в розыске, система уведомляет об этом и тем самым способствует расследованию преступлений. Таким образом, мы видим эффективность использования данных технологий, особенно при осуществлении правоохранительной деятельности. Технологии искусственного интеллекта помогают в оценке информации, моделировании событий, детализации преступления, распознавании образов, удостоверении подлинности документов, оценке достоверности и достаточности доказательств и в другой деятельности по расследованию преступлений.
С другой стороны, остается открытым вопрос об этической стороне использования тех же самых технологий распознавания лиц. Самое очевидно – в процессе функционирования данной системы технологии существует возможность вторжения в частную жизнь лиц, нарушая тем самым право на неприкосновенность личной жизни (ст. 23, ст. 24, ст. 56 Конституции РФ; ст. 8 Конвенции о защите прав человека и основных свобод). Такая система при ее злоупотреблении может значительно ограничить демократические свободы граждан, перерасти в самоуправство, нарушив конфиденциальность информации о жизни граждан. Именно поэтому важно соблюдать соотношение публичного и частного интересов, не ставить какой-то из интересов главнее другого – стараться их соединить воедино при применении искусственного интеллекта, тем самым находить верный баланс.
Этическая проблематика искусственного интеллекта заключается и в неправильном распознавании личности и привлечении добросовестного лица к ответственности или к применению мер пресечения. Хоть процент правильности распознавания постепенно растет с развитием технологий, ошибки в практике случаются и нередко. В том числе нередки данные случаи по отношению к людям других рас, меньшинств или даже противоположному полу. Такое положение дел также может вылиться в нарушение конституционных прав и дискриминацию. Например, при применении такой меры пресечения, как заключение под стражу в США (и некоторых других странах) используется технология, которая оценивает вероятность рецидива, если оставить лицо без заключения под стражу. Организация ProPublica сравнила реальный рецидивизм с предполагаемым технологией. Анализ показал, что «вероятность оценки рецидива темнокожих обвиняемых ошибочно завышается намного чаще, чем вероятность рецидива белых обвиняемых, а вероятность рецидива белых обвиняемых ошибочно занижается чаще, чем вероятность рецидива темнокожих обвиняемых». Другой пример: в США программа прогнозирования преступлений Predpol, целью которой является прогнозирования места и участников преступления, обучалась на искаженной выборке, поэтому посылала полицию чаще всего в места, населенные представителями этнических меньшинств. Согласно мнению профессора этики и политической философии Монреальского университета и одного из директоров отдела этики и политики Исследовательского центра по проблемам этики Марка-Антуана Дилака, искусственный интеллект может затрагивать расовое профилирование, прогнозирование поведения и даже определение сексуальной ориентации людей, поэтому такие важные вопросы этического свойства требуют выработки законодательства, способного обеспечить ответственный подход к развитию технологий искусственного интеллекта. Данная проблема предвзятости искусственного интеллекта поистине важна не только в плане нарушения прав и свобод человека и гражданина, но и в плане увеличения недоверия общества к подобным системам.
Важно, чтобы передаваемая информация должна оставаться конфиденциальной, известной непосредственно только необходимому лицу, государственному органу, в некоторых случаях должно предполагаться и согласие лица на использование его информации, его персональных данных. В публичных местах (по крайней мере, в большинстве из них) должны предупреждать о применении технологий распознавания лиц, объектов и их местоположений. Информация о лицах должна содержаться в специальных местах и не подлежать широкому распространению в обществе, тем самым должна обеспечиваться безопасность информации о лицах. Так, в 2018 году разразился скандал из-за того, что в Новом Орлеане тестировалась программа компании Palantir для вычисления людей, которые могут совершить насильственное преступление или стать его жертвой, в полиции на протяжении шести лет без проведения конкурсов на госзакупку. Публичного согласования по поводу этого не было, сделка была представлена как благотворительное пожертвование и использовалась без официального разрешения. Даже ключевые члены городского совета, которые контролировали доступ к информации и данным, не были уведомлены о применении технологии. Компания получила доступ к закрытым данным, что вызвало в обществе резонанс, и программу свернули.
Важно подчеркнуть, что должны быть закреплены гарантии защиты прав человека при использовании искусственного интеллекта, и поэтому данная сфера так нуждается в нормативно-правовом регулировании, а для подтверждения результатов применения технологий распознавания лица должна проводиться судебно-портретная экспертиза и необходимый анализ предъявленной технологией информации.
Хочется сказать, что искусственный интеллект действительно эффективен, особенно в уголовной сфере, но нужно понимать, что в «плохих руках» существует большая опасность для прав и свобод граждан, может происходить и утечка информации, кибернетический взлом. Британская правозащитная организация Liberty выступила с заявлением, что технологии автоматического распознавания лиц – угроза демократическому строю, так как сотрудники полиции зачастую слишком доверяют технологиям и в итоге происходят незаконные аресты и задержания. Их поддержала и британская газета Guardian. А в Сан-Франциско в 2019 году проблеме распознавания лиц постарались уделить должное внимание и даже запретили идентифицировать преступников в реальном времени. Умные камеры в режиме реального времени сохранились только на объектах федерального значения, таких как морской порт, аэропорты, метро и некоторых других, в то время как было принято решение об усовершенствовании данной технологии для дальнейшего использования и на других объектах. В России тоже не все поддерживают использование данных технологий. Например, в 2019 году организация РосКомСвобода требовала ввести мораторий на системы распознавания лиц до тех пор, пока не будет обеспечена полная прозрачность и безопасность их использования для граждан, непротиворечивость статьям Конституции и федеральному закону «О персональных данных» от 27.07.2006 г. № 152 – ФЗ.
Еще один вопрос, возникающий в рамках этики применения искусственного интеллекта - ответственность вследствие ошибок и нарушений искусственным интеллектом. Данная тема широко обсуждается, высказываются различные мнения. Так, проблема освещается в труде И. Н. Мосечкина «Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления», где автор рассуждает об определении искусственного интеллекта как вещи или же как «личности». Среди возможных субъектов для привлечения к уголовной ответственности, как правило, выделяют производителя искусственного интеллекта, производителя продукции с данным искусственным интеллектом, продавца продукции с данным искусственным интеллектом, пользователя продукции, хакеров или же сам искусственный интеллект при условии наделения его правосубъектностью. О. П. Кузнецов, А. В. Незнамов и многие другие ученые считают, что искусственный интеллект никоим образом не может нести ответственность, ответственность несет исключительно человек. С другой стороны, существует и противоположная точка зрения, которая заключается в том, что искусственный интеллект тоже может отвечать за свои ошибки (такого мнения придерживается, например, Р. В. Душкин).
Этические проблемы использования искусственного интеллекта в современном мире широко обсуждаются и предпринимаются попытки урегулирования вопросы использования искусственного интеллекта по всему миру, в том числе и в нашей стране. Так, был издан Указ Президента РФ от 10.10.2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года»), где вниманию подлежали принципы развития и использования технологий искусственного интеллекта. К таковым принципам относятся защита прав и свобод человека, безопасность, прозрачность, технологический суверенитет, целостность инновационного цикла, разумная бережливость, поддержка конкуренции. Кроме того, В. В. Путин в выступлении на пленарном заседании конференции по искусственному интеллекту в ноябре 2019 г. в Москве отметил значимость развития технологий и уделил внимание тому, что искусственны интеллект обладает огромным потенциалом в любых направлениях человеческой жизнедеятельности.
Таким образом, урегулирование применения искусственного интеллекта требует большой доработки как в практическом применении, так и в нормативно-правовом закреплении. Необходимо учитывать, что статистические сопоставления искусственного интеллекта дают прогнозы, которые не нужно принимать на слепую веру. Кроме того, искусственный интеллект опирается на средства формальной логики, но в правовой оценке ситуации присутствуют и ценностные критерии, находящие выражение в принципах права и применении аналогии права и аналогии закона, что довольно сложно интерпретировать искусственному интеллекту. Вместе с тем нельзя отказываться от применения искусственного интеллекта при расследовании преступлений, так как он существенно помогает в деятельности следователей и дознавателей, ускоряет процесс расследования преступлений, как и нельзя говорить о том, что при использовании искусственного интеллекта должна перестать осуществляться деятельность человека в расследовании преступлений. Именно поэтому важен контроль за применением искусственного интеллекта и особая внимательность при взвешивании интересов в безопасности общества и личной жизни граждан.