Вопросы этики – практически мертвая зона в условиях отсутствия общепринятого и достоверного понимания таких категорий как мораль, нравственность и т.д. Этику сложно формализовать. А именно данный феномен имеет большое значение для разработки критериев эффективности правовой системы. Что этично, а что не этично? (этичность зависит от последствий или этичность определяется некими абсолютными принципами – это к слову о проблеме вагонетки, которая затрагивается в фильме «Я, робот», где ИИ спас взрослого мужчину из тонущей машины, мотивируя это тем, что у него было гораздо больше шансов выжить, чем у 11-летней девочки). Это первый вопрос, на который стоит дать ответ. Во-вторых, каким образом установить системе определенные моральные запреты, используя при этом естественный язык программирования? 3 закона Айзека Азимова (законы робототехники) не работают и их очень легко обойти. Какую роль играют уже разработанные экспертными группами принципы по вопросам искусственного интеллекта – пытаемся ли мы «очеловичить» искусственный интеллект (что нелепо и бессмысленно) или сделать его более рациональным и понятным для человека?
Если же говорить о «moral machines» применительно к расследованию преступлений, представляется, что в использовании систем ИИ в качестве вспомогательного (!) инструмента не существует глобальных проблем. Системы ИИ учатся и работают, основываясь на тех данных, которые им в первую очередь задает человек (!) по принципу garbage in и garbage out. Почему вопрос об этичности использования собак в борьбе с распространением и хранением наркотических средств не вызывает таких споров? Ведь принцип работы тот же самый - дрессируя собаку, кинологи понимают, какая именно информация / входные данные влияют на развитие у животного умения результативного поиска, даже если сам процесс принятия решения животным (психические процессы) от глаз кинолога остается скрытым – эта же логика распространяется на работу систем ИИ.
Кроме того, необходимо помнить, что преступления совершаются людьми, и мы, как логические существа, следуем шаблону, каким бы особенными и уникальными ни старались быть. Преимущество ИИ в том, что он может обнаруживать закономерности в нашем поведении и даже предсказать, как будет действовать человек, если он старается адаптировать свое поведение под постоянно изменяющиеся внешние факторы. Эффективность человека в этом смысле может быть не такой высокой, поскольку корреляционные взаимосвязи тот же следователь определяет чаще всего интуитивно или на основе профессионального опыта. Возьмем в пример историю с серийной убийцей под псевдонимом Зодиак. Было установлено, что он совершил 7 нападений, из которых 5 закончились смертью потерпевших, хотя в своих письмах Зодиак заявлял о совершении 37 убийств. Он написал в полицию 4 шифра, которые невозможно разгадать большинству экспертов. Только 1 из 4 шифров был разгадан. Недавно письма смогли оцифровать и загрузить в компьютер Carmel наряду с другими записками убийцы, чтобы попытаться интерпретировать шифр - это то, что человек не может физически сделать сам, поскольку количество возможных вариантов может «перевалить» за миллиард.
Системы ИИ уже применяются в таких областях, как 3D-реконструкция места преступления, цифровой анализ данных, идентификация почерка, идентификация личности по результатам стоматологических исследований, обнаружение киберпреступлений и сбор цифровых доказательств, прогнозирование преступлений (PredPol в США) и т.д. Вместе с тем, можно выделить несколько проблем, но проблем устранимых:
- неизбежное допущение ошибок на этапе внедрения ИИ. Например, всем известно, что банки используют системы мониторинга транзакций, и ранее примерно 2% транзакций, помеченных программным обеспечением, указывали на реально «подозрительное поведение». Алгоритмы усовершенствовали, отфильтровав случаи, помеченные неправильно, и теперь системы успешно используются для пресечения экономических преступлений, заполнения отчетов и автоматизации рутинной работы.
- использование систем ИИ правоохранительными органами может привести к предвзятому отношению сотрудников, которые ищут преступления в определенное время и в определенном месте, что фактически может изменить уровень преступности. По словам Тоби Дэвиса, математика и криминалиста, даже если в двух местах происходит одинаковое количество преступлений, полиция обнаружит больше преступлений в том месте, где они находятся, а не в другом месте, из-за сформированного неосознанного предубеждения (петля обратной связи или как в данном примере - «кто ищет, тот всегда найдет»).
- необходимо обеспечить особую безопасность данных, поскольку системы ИИ могут с большой вероятностью выявлять характеристики о человеке, не являющиеся общедоступными и даже личными (в т.ч. относящиеся к какому-либо из видов тайн).
- т.к. системы зачастую обучаются на решениях или информации, созданных людьми, они могут и перенимать человеческие предвзятости (расовые, гендерные и т.д.) - самым известным примером является использование программного обеспечения COMPAS в американской системе, помогающей оценить риск рецидива. А потому с 2016 года оценка риска повторного совершения преступления со стороны системы ИИ лишь только МОЖЕТ быть принята во внимание судьями (наряду с другими факторами и обстоятельствами) при вынесении решения.
Но для начала необходимо решить, что же мы понимаем под "этичностью", а это по большей части предмет "договора".