Теперь Кью работает в режиме чтения

Мы сохранили весь контент, но добавить что-то новое уже нельзя

Как защитить от взлома машинные обучения, нейронные сети, искусственные интеллекты?

ТехнологииПрограммирование+3
Анонимный вопрос
  ·   · 3,5 K
Cloud4Y — один из ведущих провайдеров услуг по...  · 15 июн 2022
Привет! Вопрос не совсем корректный. Машинное обучение и ИИ нельзя взломать в прямом смысле этого слова.  Но можно испортить алгоритмы работы, если добавить заведомо неправильные датасеты.
Например, если нейросеть обучать распознавать лица людей  и добавить туда датасет с обезьянами, которые размечены как люди, то машина может на первых порах распознавать обезьян как людей.
Но добавить такой датасет незаметно — это что-то из рода фантастики.  Ведь  датасеты имеют порой терабайтные объёмы, а обучение требует большого количества облачных ресурсов, GPU и т. п.  Заметят сразу.
Кроме того, существует такое понятие, как дообучение, переобучение, тестовые выборки. Если разработчики видят странную закономерность, они создают новые наборы данных, которые избавят машину от ошибок. Если есть явные проблемы, обучение могут приостановить, чтобы изучить вводные данные и внести изменение в процесс обучения.
Да, нейросеть — это такая чёрная коробочка, в которую мы на входе кладём данные, а на выходе получаем какой-то готовый результат. Но залезть в эту коробочку и испортить её — что-то нереальное.
Зато нейросети можно обмануть! Об этом целая статья есть.
Лучший
Я программист в компании - senior  · 21 мая 2022
Скорее всего работающим решением будет дополнение своей обучающей выборки такими вредоносными примерами, чтобы не дать себя обмануть хотя бы на них. Но сгенерировать все возможные вредоносные примеры и получить 100%-ную... Читать далее