Теперь Кью работает в режиме чтения

Мы сохранили весь контент, но добавить что-то новое уже нельзя

Как обучить нейронную сеть с несколькими выходящими нейронами?

Программирование+4
Анонимный вопрос
  ·   · 2,8 K
Openstack DevOps and IBM/Informix Certified DBA...  · 18 мар 2022
Обучение нейронной сети с несколькими выходными нейронами
Команды службы доставки из ресторана хотели бы выбрать коробки разного цвета в зависимости от типа пиццы. Когда пицца веганская, они хотят положить ее в зеленую коробку, вегетарианскую — в желтую, а мясную пиццу — в голубую.Камеры над печами автоматически определяют ингредиенты, и вам нужно использовать эту информацию, чтобы предложить, какую цветную коробку использовать.
Настройте и обучите свою первую нейронную сеть с несколькими выходами. Типы пиццы должны быть линейно разделимы, так как они либо содержат продукты животного происхождения, либо нет. Например, в пицце есть мясо (мясо), моцарелла и овощи (вегетарианская) или нет продуктов животного происхождения (веганская). Давайте проверим это предположение, настроив первый компонент с одним слоем с 15 входными измерениями и тремя нейронами.
На этот раз воспользуемся активацией softmax. Sigmoid не гарантирует, что выходные данные являются взаимоисключающими. У вас может быть два выхода одновременно, то есть веганская и вегетарианская пицца; softmax гарантирует, что результаты являются взаимоисключающими.
Следуем документу (моему блогу)
Run Code 1
Попробуем другой оптимизатор
На первом тесте вы обнаружили, что иногда вам нужно вручную изменить скорость обучения стохастического градиентного спуска (SGD), чтобы сеть могла учиться. Поверх SGD было внесено множество улучшений, и на его основе было создано несколько алгоритмов. Одним из таких алгоритмов является адаптивная оценка момента (Адам). В то время как SGD поддерживал свою скорость обучения во время сеанса обучения, Адам изменяет ее в зависимости от того, как обучается алгоритм, что значительно ускоряет обучение.Чтобы почувствовать Адама, представьте, что вы мяч, катящийся с горы. Когда холм крутой, вы спускаетесь быстро, а когда холм становится менее крутым, вы спускаетесь медленнее — так Адам меняет скорость обучения.Давайте попробуем Adam и посмотрим, как он себя поведет:
Следуем документу (моему блогу)
Run Code 2
Openstack DevOps and IBM/Informix Certified DBA...  · 27 мар 2022
Построение многослойной нейронной сети в Keras с несколькими выходами ============================================= Cтруктурирование любого проекта глубокого обучения. ============================================= Предварительна... Читать далее