Вообще это отражается а теории информации. Если грубо, то чем менее структурирован сигнал, тем больше информации он передаёт.
Если же говорить об измерении или рассчёте структурированности, то в моём понимании любая структура обладает некоторой повторяемостью, а это значит, что если объект описать массивом некоторых величин, то он может быть выражен в виде тензора. Далее можно будет применить преобразование Ферма и по тому, насколько картинка отличается от нормального распределения, судить о структурированности.
Тогда скорее не "структурирован", а "предсказуем". В формуле Шеннона(информационная энтропия) фигурирует понятие вероятности.
Если кратко, то я бы посоветовал познакомиться с понятием "энтропия". Оно широко используется в термодинамике, теории информации, статистической физике, теории вероятностей.