По простому: представте? что у вас есть система - типа взвешенный граф. Точки и связи между ними, у каждой связи определенный вес.
На вход системы подаются данные, на выходе образуется результат. Результат зависит от набора весов вашего графа.
По началу веса имеют абсолютно хаотичный характер. Вы подаете на вход некий блок данных - на выходе получаете совершенно отфонарный результат.
Тогда вы начинаете "учить" модель. А именно подаете на вход "обучающую" последовательность. Вы знаете какой результат должен быть на выходе при определенном наборе данных. Последовательно сравниваете результат с эталоном. И двигаете веса графа в ту или другую сторону по-немногу, приближая выходной результат к эталону. Проходите так много-много раз по своей обучающей последовательности, пока не получите на выходе модели для вашего обучающих наборов данных набор результатов статистически близкий к эталонному.
Все - ваша модель обучена.
Далее вы подаете на вход новые данные и получаете результаты обученной модели.
(В общем случае, кстати, суть зависимости результата от данных для вас остается скрытой. В итоге, даже после обучения, она и останется для вас неизвестной в случае нейросетевой модели. Модель представляет для вас "черный ящик" - вы что-то в нее пихаете и что-то получаете на выходе. Как в случае обученной модели, так и не обученной. Это важно понимать. Смысл зависимости между входом и выходом модель, в общем случае не объясняет. Лишы выдает некий результат - статистически похожий на правильный или не похожий.)