Теперь Кью работает в режиме чтения

Мы сохранили весь контент, но добавить что-то новое уже нельзя

Как бороться с Deep Fakes?

ТехнологииМедиа и коммуникации+2
Настя Федорова
  ·   · 8,5 K
студент MA University College of London по специал...  · 15 дек 2021
Существует два подхода:
  1. ПО, сервис, способные определить, что фото/видео подверглись манипуляции по стороны искусственного интеллекта или были им сгенерированы. Например, deepware.ai У этого способа масса оговорок, существует много алгоритмов для детекции, ни одного 100% надежного нет.
  2. Верифицировать происхождение видео по технологии, схожей с блокчейн. Когда каждое изменение видео фиксируется, и его историю можно отследить вплоть до оригинала. Тут много бонусов - можно отслеживать дипфейки, чипфейки, да и просто лживую информацию типа "это было снято весной 2021 в Саратове", хотя на самом деле летом, в 2018 и в Рязани. Но архитектура требует средств для поддержки, а также с таким подходом должны согласиться сразу много крупных игроков - от производителей телефонов до социальных сетей.
Третий подход, который требует инвестиций только в себя – проверять информацию, критически мыслить.
Первый
Корпоративный аккаунт компании LabelMe.  · 9 дек 2021  · labelme.ru
Советую посмотреть два этих видео, чтобы лучше понять принцип создания и распознания. Если вкратце, то с каждым днем дипфейки становятся всё реалистичнее. Поэтому многие пытаются разработать алгоритмы детекции, опирающиеся на... Читать далее
Системный анализ  · 13 дек 2021
Понижением социальной значимости "видео-доказательств". Собственно, это само и произойдет со временем. Побочным следствием этого будет углубление "когнитивного неравенства" (по способности адекватно воспринимать реальность).