Существуют задачи, сложность решения которых записывается как nᴿ, где n — размерность задачи, R — показатель степени. Например, для банального алгоритма матричного умножения этот показатель равен 3, и только в самых лучших алгоритмах можно приблизиться к числу e. Таким образом, для перемножения матриц 10 × 10 нам потребуется 10² · 8 · 3 = 2400 байт памяти и условно 10³ = 1 000 единиц времени. А если мы захотим перемножить матрицы 100 × 100, то нам будет нужно 100² · 8 · 3 = 240 000 байт памяти и 100³ = 1 000 000. В этом и заключается проклятие размерности, мы увеличили размерность задачи на порядок, а ресурсы, необходимые для её решения — на два тире три порядка. И это только самый простой пример, а когда размерность задачи приближается к миллионам — нам попросту может не хватить вычислительных ресурсов.