Парсинг, конечно, здорово, но его делают практически все в основной массе, и он дает довольно-таки фрагментарное покрытие.
--
Я где-то с 2005-го практикую метод, который условно назвал "Обработка семантического континуума":
Отталкиваясь от корневого слова/словосочетания, можно выделить подмножества уточненных фраз, описывающих ту или иную характеристику объекта рекламирования (позднее это назвали кластерами).
Это, с одной стороны, позволяет выбрать заведомо полноценную семантику в рамках ниши, с другой - не зависеть от технических средств (программ парсинга, сервисов и т.д.) и перепадов частотности поисковых запросов. Плюс систематизация позволяет экономить время и усилия.
--
К примеру, в давней-давней рекламе автосалона Опель я выделил 17 или 19 различных семантических подмножеств: модель, комплектация, цвет, тип коробки, объем двигателя, ... и все это было "брошено на передовую" - в контекстную рекламу :)
Однажды даже звонил РОП из конкурирующего автосалона, спрашивал контакты нашего подрядчика :)
--
В 2011-м, когда я уже обучал по Я.Директ, один из слушателей поделился своей занимательной историей:
Выделяя кластеры в его сфере, мы обнаружили имеющие спрос гео-фразы - добавили станции метро, районы, шоссе и т.п. Примерно год он благоденствовал, а потом конкуренты начали массово копировать у него эту семантику :)
--
Есть некоторое пересечение с понятием "искусственная семантика" - в рамках кластеров проводится генерация фраз с перечислением вариантов каждой характеристики (Опель Астра 1.2, Опель Астра 1.3, Опель Астра 1.4). К сожалению, спамеры подпортили репутацию данному подходу, злоупотребляя бездумным перемножением скобок (однажды видел "монстра" вроде Опель Астра купить цена скидки).
--
Так что предварительную подготовку семантики провожу, можно сказать - "необычно", а ее дальнейшую обработку - уже вполне традиционными способами.