студент MA University College of London по специал... · 15 дек 2021
Существует два подхода:
ПО, сервис, способные определить, что фото/видео подверглись манипуляции по стороны искусственного интеллекта или были им сгенерированы. Например, deepware.ai У этого способа масса оговорок, существует много алгоритмов для детекции, ни одного 100% надежного нет.
Верифицировать происхождение видео по технологии, схожей с блокчейн. Когда каждое изменение видео фиксируется, и его историю можно отследить вплоть до оригинала. Тут много бонусов - можно отслеживать дипфейки, чипфейки, да и просто лживую информацию типа "это было снято весной 2021 в Саратове", хотя на самом деле летом, в 2018 и в Рязани. Но архитектура требует средств для поддержки, а также с таким подходом должны согласиться сразу много крупных игроков - от производителей телефонов до социальных сетей.
Третий подход, который требует инвестиций только в себя – проверять информацию, критически мыслить.
Советую посмотреть два этих видео, чтобы лучше понять принцип создания и распознания. Если вкратце, то с каждым днем дипфейки становятся всё реалистичнее. Поэтому многие пытаются разработать алгоритмы детекции, опирающиеся на... Читать далее
Понижением социальной значимости "видео-доказательств". Собственно, это само и произойдет со временем. Побочным следствием этого будет углубление "когнитивного неравенства" (по способности адекватно воспринимать реальность).