На 100% уверен, что технических проблем в хранении данных нет и не будет. сейчас даже весьма бедные организации могут позволить себе хранить данные по всей операционной деятельности за 5 лет причем вплоть до каждой служебной сканированной записки, эти данные можно проанализировать и вывести любые требуемые показатели "эффективности", если это нужно.
А это с учетом использования всего одной кремниевой, полупроводниковой технологии 100 лет назад открытой.
Наверняка в старину люди тоже думали что лес скоро весь порубят на книги, но не случилось.
Так что тут речь скорее о проблеме медленного технологического освоения этих данных в глубину.
То есть сейчас рынок просто расширяется (идет в ширь), BigData собирают в самых различных областях и именно эти ниши дают такой рост. Начали грубо говоря с маркетинга, медицины, биологии, генетики, а сейчас уже БигДата привязывается к повседневной жизни, вытесняя привычные подходы работы с данными: рекомендательные сервисы всего и вся: музыка, фильмы, игры, маршруты, туризм, досуг и так далее и иногда компании использующие БигДату забирает больше 50% рынка в таких нишах.
Как только все ниши будут заняты, будет слом экспоненты, нужно будет бороться за качество, изучая "глубину" данных, а это менее прибыльно и требует больше времени, поэтому рост изменится на логарифмическую кривую, но лет 10 ещё есть куда расширяться.