Своеобразный вопрос, но попробую ответить.
Во-первых, если мы говорим с точки зрения Data Science, то сейчас на самом деле достаточно 1000 единиц данных (записей, картинок и тд), чтобы уже сделать какую-то модельку, которая сможет делать какие-то предсказания. Понятно, что чем больше данных, тем модель будет точнее и можно увидеть больше взаимосвязей, но для какого-то минимума это уже достаточно.
Если вопрос в контексте "как мне понять, что у меня большие данные", т.е. где находится граница объёма, я бы предложил её формулировать так - если у вас ощущается потребность в специфичных инструментах для работы с ними аля Spark, Hadoop и иже с ними - можете полноценно считать это big data. Если нет, значит вы еще не совсем перешли границу.
Но повторюсь - работать с данными сейчас можно и не имея огромных наборов, инструменты не стоят на месте.