Всем добра. Меня зовут Сергей Мусатов, я SEO-специалист агентства Onpeak.
Мы работаем с 2010 года и закрываем любые задачи маркетинга. Одна из услуг – сбор семантического ядра, которую может внедрить каждое агентство.
Достаточно часто мы выступаем подрядчиками для команд маркетологов, которые хотят проанализировать рынок или направление и в дальнейшем масштабировать свой проект.
Задача
К нам обратилось маркетинговое агентство с просьбой собрать семантическое ядро по группе запросов, связанных с кроватями и матрасами. Это нужно для изучения одного из направлений, по которому может развивать их непосредственный заказчик.
От нас просили собрать полную картину, предоставив список ключевых слов. Не забыли и про минус-слова, которые заказчику не очень интересны.
ТЗ выглядело вот так:
Всего в ТЗ около 60 запросов и 20 минус-слов.
План работ
Заказчик семантического ядра хочет изучить рынок и спрос и сделать выводы о необходимости расширения своего бизнеса. Возможно ядро будет использовано для создания структуры нового сайта.
Исходя из этого, определяем несколько процессов:
1. Собираем всю возможную семантику, очищаем от дублей, мусора, ненужных запросов;
2. Отдаём ядро заказчику, который бегло проверяет всё ли ок. При необходимости выполняем дополнительную чистку;
3. Выполняем кластеризацию запросов, получаем группы, которые будут использоваться для создания разделов на сайте;
4. Согласовываем итоговую работу, получаем оплату.
Сбор семантического ядра
Мы начали с изучения возможных объёмов запросов. Достаточно часто случается так, что запросов очень мало и заказчику показать практически нечего.
В таком случае мы честно говорим, что все ключевые запросы лежат на поверхности, фактически все их и прислали для проработки и предлагаем варианты других услуг.
Но данный случай не такой. В Базе запросов по списку нашлось более 190 000 запросов (!)
Не рекордное количество, но не плохо, есть с чем работать! После добавления минус-слов картина изменилась не сильно, и нашлось 180 000 запросов.
Можно обратить внимание, что у нас не самый топовый тариф, потому разбиваем запросы на группы и собираем ядро по каждой из групп, после чего объединяем всё в один Excel файл.
После добавления удаляем разный мусор, дубли и получаем чуть больше 144 000 запросов.
Дополнительно используем инструмент «Расширение ключевых слов». Для уменьшения мусорных запросов ставим похожесть примерно 60%, исключаем повторы и убираем хвосты.
На выходе получаем около 10 000 запросов.
Обязательно проходимся по сбору поисковых подсказок. Для этого нам помогут всё те же ключевые слова от заказчика.
В котором нашлось ещё почти 11 000 запросов.
Чистка семантического ядра
Мы получили базу, с которой нам нужно работать. При беглой проверке замечаем, что в ядре множество запросов с перестановкой слов, смысл которых одинаковый. Для решения проблемы воспользуемся «Чисткой неявных дублей».
Есть лишь одна проблема – у нас 160 000 запросов. Сервис позволяет за 1 раз обработать 100 000 запросов.
Пробуем добавлять максимальное количество записей и смотрим, получится ли несколькими итерациями нам попасть в лимит и выполнить чистку качественно.
Браво сервису! 100 000 запросов перевариваются за секунды, и мы тут же можем увидеть результат первой итерации.
Тем самым исключено почти 40 000 запросов. Не плохо!
Добавляем вторую пачку запросов, очищаем и получаем результат в около 34 000 запросов. Считая грубо 34+61 мы понимаем, что укладываемся в лимит для общей чистки. Добавляем всё собранное ядро и выполняем последнюю чистку.
Почти 90 000 запросов. Площадки пробива позиций спят и видят такое ядро по всем проектам. После финальной чистки количество запросов значительно уменьшится, но проверки направления должно хватить.
Отлично! Проходим глазами то, что собрано и задаём заказчикам уточняющие вопросы.
Получив наставления выполняем дополнительную чистку и получаем предварительное семантическое ядро размером в 83 000 запросов!
Включаем все свои силы по поиску фраз с топонимами, регионами, странами, брендами и тем, что не подходит по тематике.
В этот раз мы действовали через фильтры в Excel, потому как удаление только запросов с СПБ уменьшило ядро на более чем 50 000 запросов.
После грубой чистки закидываем запросы в Топвизор и пробиваем частотность. Забираем лишь запросы со спросом больше 10, выгружаем и шлифуем результат.
Кстати, проверить частотность запросов онлайн можно и в Keys.so. Для этого можно воспользоваться онлайн парсером частотности Wordstat. Инструмент доступен для пользователей на всех тарифах.
Финальную часть делали уже руками, просматривая каждый запрос и удаляя лишнее. Много консультировались с заказчиком, учитывали все пожелания.
Надо заметить, что ручная чистка очень трудоёмка. На 10 запросов уходит 10 секунд, из которых 8 просмотр глазами, 2 секунды — на удаление. Но это режим робота.
В итоге мы получили 32 000 запросов.
Далее мы кластеризовали запросы через KeyAssort. На это ушло несколько часов.
Сдача работ
После всех проделанных действий, осталась самое важное – сдача задачи на проверку заказчику.
Мы подготовили файлы для анализа, отдали отдельно возможную будущую структуру и список конкурентов. Надо сказать, что как всегда мы выложились на полную: были зажаты сроками, внезапными задачами и человеческими факторами. Но заказчики приняли работу и поблагодарили за результат.
А что может быть лучше, чем оплата счёта и похвала от требовательного заказчика?
Итог
Всего на задачу ушло около 20 часов. Каждое агентство может прикинуть свои возможности, себестоимость и маржинальность. Но совершенно точно каждое агентство может оказывать такие услуги.
Хорошо помогает поиск партнёров среди маркетологов, которые могут на регулярной основе выполнять подобные заказы. Маркетологов можно найти на конференциях.
Ещё одним прекрасным бонусом является то, что на подобных задачах прекрасно тренируются и набивают руки джуны. Мало того, что происходит тренировка по сбору семантики, так ещё и можно напрямую пообщаться с заказчиком (при желании) и прокачать свои коммуникативные навыки.
Наша компания достаточно часто оказывает подобные услуги, и все джуны прошли через подобные задания. Но бывают и сложные заказы. Однажды я лично собирал семантику из 120 000 запросов, где «грязных» было более 300 000.
Если вам интересно узнать больше обо всех инструментах для сбора семантического ядра, читайте эту статью.