Это данные больше, чем те, что мы могли представить 10 лет назад. Нет строгой границы между данными стандартных размеров, к статистическому описанию или статистической обработки которых мы привыкли 30 или 40 лет назад, и большими данными. Конечно, есть очевидные крайние случаи, когда спора быть не может. В таких случаях даже серверы находятся в больших зданиях, это тяжелые серверы и толстые кабели, так как физически там хранится очень большой объем информации. Но при этом сам по себе объем данных - это может быть не самое важное, что составляет определение Big Data. А самое важное - это то, применимы ли к обработке этих данных традиционные алгоритмы. Иногда привычные алгоритмы становятся неэффективными, они очень долго работают на больших данных. Тогда термин Big Data подразумевает, что нам требуются более эффективным способы подсчета статистики. Получается, что Big Data в полном смысле - набор технологий хранения больших массивов данных, их передачи и кодировки, а также упрощения алгоритмов их обработки. Все это вместе - это большие данные. Но при этом, поскольку термин Big Data возник относительно недавно, он все еще находится в такой стадии, когда его определение очень подвижно и изменчиво.