Если в контексте данного вопроса, под расследованием преступления, понимается сбор и формирование доказательной базы, с целью передачи дела в суд, то глобально ничего и не поменяется.
Сейчас сбор доказательств осуществляется с использованием компьютерных технологий, преступника могут выслеживать в социальных сетях, изучать его активность в сети, использовать систему распознавания лиц.
Если иметь ввиду, что искусственный интеллект лишь это автоматизирует, то это плюс, с точки зрения этики ничего не поменяется.
Продолжая тематику именно расследования, можно уйти к вопросу, а способен ли искусственный интеллект проводить допрос.
Здесь сложнее. Возможно, в настоящий момент общение с искусственным интеллектом, при допросе, будет некомфортным для допрашиваемого (если в целом на допросе можно говорить о комфорте). Состояние допрашиваемого, при котором он общается с чем-то искусственным, возможно приведет его к ответам, которые он бы не дал, при допросе его человеком. Как минимум, допрашиваемый точно не будет чувствовать пусть и ложную, но эмпатию.
Тем не менее, если ИИ сможет ставить более корректные и верные вопросы, в ходе допроса, для целей расследования преступления это будет плюсом.
Если мы говорим об искусственным интеллекте еще и в контексте вынесения приговора, то есть речь идет о замене судей, здесь вопрос этики занимает совершенно иную нишу.
Надо не забывать про судейское усмотрение, из чего оно должно строиться? Прежде всего судья должен иметь широкий жизненный опыт, уметь выходить за пределы обычных оценочных понятий. Это еще и моральные принципы конкретного судьи, его понимание права и справедливости, способность понять личность обвиняемого.
Именно обладая всеми этими замечательными качествами, суд может выносить приговор с учетом судейского усмотрения, будет ли это у ИИ - вопрос, мне кажется нет. В таком случае ИИ не должен выносить приговоры, потому что не будет способен руководствоваться принципом судейского усмотрения.
Также, суд, вынося обвинительный приговор даёт оценку доказательствам. Стандарт доказывания при этом повышенный, для обвинительного приговора он будет "За пределами разумных сомнений".
То есть, судья должен на конкретных доказательствах быть полностью убежден, что перед ним виновный человек. Это вопрос его убеждения, а это убеждение возникает, в том числе, всё на основе того самого жизненного опыта.
Как будет следовать ИИ в данном случае? Какой он выберет стандарт доказывания для того или иного дела? Не имея понимания, как будет функционировать этот момент, невозможно говорить и об этике.
Рискну предположить, что вопрос навеян игрой Detroit: Become Human. В ней авторы хорошо раскрыли, что и ИИ может осознавать себя большим чем просто роботом, а также показали как ИИ расследуют преступления.
Это уже новая сторона этики, а именно этично ли по отношению к ИИ будет использовать его в рамках расследования преступлений, но именно на этот вопрос ответа у меня нет)