Семантическое ядро — как составить правильно? Как собрать и разгруппировать семантическое ядро: полная инструкция Правильное семантическое ядро пример.

💖 Нравится? Поделись с друзьями ссылкой

Семантическое ядро сайта представляет собой ключевые слова (запросы) , которые используют пользователи в интернете для поиска услуг, товаров и любой другой информации, которую предлагает данный сайт. Для веб-мастеров, это план действий по продвижению ресурса. В идеальном плане семантическое ядро сайта создается один раз, перед тем, как начать оптимизацию и продвижение.


Семантическое ядро сайта составляется обычно в несколько этапов:

  1. Подбираются всевозможные слова (фразы) подходящие по теме сайта. Вначале можно ограничиться 100 – 200 поисковыми запросами. Для того чтобы знать какие запросы вам подходят, ответьте себе на вопрос «Чему я хочу посвятить свой сайт?»
  2. Расширение семантического ядра за счет ассоциативных запросов
  3. Следует отсеять неподходящие слова. Тут вы отсеиваете те фразы, по которым вы не будете продвигать ваш сайт. Таких слов обычно находится больше половины.
  4. Отсеиваются высококонкурентные запросы, по которым продвигать сайт нет смысла. Как правило, убирается три слова из пяти или более.
  5. И последнее, это правильное распределение списка поисковых запросов на страницах ресурса. Рекомендуется высококонкурентные запросы оставлять на главной странице ресурса, менее конкурентные необходимо группировать по смыслу и располагать на других страницах. Для этого нужно создать в Exel документ и разбить ключевые слова по страницам.

Подбор поисковых запросов и проверка частотности

Первое, что нужно сделать, это собрать как можно больше всевозможных запросов по вашей теме, которые интересуют пользователей в Сети. Для этого существует два метода:

  • Бесплатные, в которые входят: Wordstat Yandex, Словоеб, дедовский способ, подсказки от Google (External Keyword Tool), анализ семантики конкурентов и поисковые подсказки.
  • Платные которые включают Key Collector, Semrush, базы Пастухова и некоторые другие сервисы.

Данные инструменты подходят для различных целей (к примеру, Semrush лучше использовать для буржунета). Конечно, это все можно доверить оптимизаторам, но присутствует вероятность того, что вам составят неполное семантическое ядро.

Многие пользуются для сбора ключевых фраз базу Пастухова, но с Key Collector намного удобнее собирать запросы с сервисов статистики Яндекса и Гугла .

На начальном этапе сбор запросов лучше сделать в Excel, это выглядит так:


Если для вашего ресурса важнее будет Google, то акцент делайте на него, но также учитывайте и анализируйте ключевые слова из Яндекса. Еще очень важно собрать длинный хвост низкочастотных запросов, по ним вы получите трафик намного быстрее.

Можно воспользоваться и еще одним вариантом, это узнать ключевые фразы (слова) у конкурентов и воспользоваться ими. На этом этапе вы просто собираете как можно больше ключевых фраз (слов) подходящих по теме вашего ресурса, а затем переходите к следующему этапу – фильтрации.

Анализ запросов, удаление "пустышек"

Этот этап уже проще, здесь надо отфильтровать слова пустышки и те, что не связаны с тематикой сайта. К примеру, у вас доставка обедов в Киеве, а в списке присутствуют другие города.

Как определить пустые запросы? Зайдите в Яндекс Вордстат и введите ключевое слово:


Вы видите 881 показов в месяц, но если точнее определить:


Теперь вырисовывается совсем иная картина. Может это и не лучший пример, но главное, чтобы вы поняли суть. Есть большое число ключевых фраз, по которым виден достаточный трафик, хотя на самом деле там все отсутствует. Вот поэтому нужно и отсеять такие фразы.

К примеру, если человек перед тем (либо после того) как набрать запрос «доставка обедов» прописывал в поисковой строке еще какую-либо фразу (называется одна сессия поиска), то Yandex делает предположение, что эти фразы поиска как-то взаимосвязаны. Если такая взаимосвязь наблюдается у нескольких человек, то такие ассоциативные запросы показываются в правой колонке wordstat.


Такие поисковые запросы сортируются в окошке wordstat в порядке убывания частотности их ввода в связке с основным запросом в этом месяце (показывается частота их употребления в поисковике Яндекса). Вам надо воспользоваться такой информацией, чтобы расширить семантическое ядро вашего ресурса.

Распределение запросов по страницам

После этого необходимо распределить собранные вами ключевые слова (фразы) на страницах вашего сайта. Распределение проводить намного проще, когда у вас еще нет самих страниц.

Ориентируйтесь, прежде всего, на ключевые слова в поисковых запросах и их частотность. С конкурентностью следует поступить так: главную страницу выделите для одного-двух высококонкурентных запросов.

Для среднеконкурентных или низкоконкурентных запросов, оптимизируйте соответственно страницы разделов и статей.

Если в поисковых запросах присутствует семантическое сходство, просто соберите одинаковые фразы и определите их в одну группу. При составлении ключевых слов для продвижения ресурса всегда используйте не только стандартные инструменты, но и творческий подход.

Сочетая нестандартные и классические способы можно просто и быстро создать семантическое ядро сайта, подобрать наиболее оптимальную стратегию раскрутки и намного быстрее достигнуть успеха!

Быстрая навигация по этой странице:

Как и практически все другие вебмастеры, я составляю семантическое ядро с помощью программы KeyCollector — это безусловно лучшая программа для составления семантического ядра. Как ей пользоваться — это тема для отдельной статьи, хотя и в Интернете полно информации на этот счет — рекомендую, к примеру, мануал от Дмитрия Сидаша (sidash.ru).

Поскольку поставлен вопрос о примере составления ядра — привожу пример.

Список ключей

Предположим, у нас сайт посвящен британским кошкам. Вбиваю в «Список фраз» словосочетание «британская кошка» и нажимаю на кнопку «Парсить».

Получаю длинный список фраз, который будет начинаться со следующих фраз (приведена фраза и частнотность):

Британские кошки 75553 британские кошки фото 12421 британская вислоухая кошка 7273 питомник британских кошек 5545 кошки британской породы 4763 британская короткошерстная кошка 3571 окрасы британских кошек 3474 британские кошки цена 2461 кошка голубая британская 2302 британская вислоухая кошка фото 2224 вязка британских кошек 1888 британские кошки характер 1394 куплю британскую кошку 1179 британские кошки купить 1179 длинношерстная британская кошка 1083 беременность британской кошки 974 кошка британская шиншилла 969 кошки британской породы фото 953 питомник британских кошек москва 886 окрас британских кошек фото 882 британские кошки уход 855 британская короткошерстная кошка фото 840 шотландские и британские кошки 763 имена британских кошек 762 кошка британская голубая фото 723 фото британской голубой кошки 723 британская кошка черная 699 чем кормить британских кошек 678

Сам список намного больше, я только привел его начало.

Группировка ключей

Исходя из этого списка, у меня на сайте будут статьи про разновидности кошек (вислоухая, голубая, короткошерстная, длинношерстная), будет статья про беременность этих животных, про то, чем их кормить, про имена и так далее по списку.

Под каждую статью берется один основной такой запрос (=тема статьи). Впрочем, только одним запросом статья не исчерпывается — в нее также добавляются другие подходящие по смыслу запросы, а также разные вариации и словоформы основного запроса, которые можно найти в Кей Коллекторе ниже по списку.

Например, со словом «вислоухая» имеются следующие ключи:

Британская вислоухая кошка 7273 британская вислоухая кошка фото 2224 британская вислоухая кошка цена 513 порода кошек британская вислоухая 418 британская голубая вислоухая кошка 224 шотландские вислоухие и британские кошки 190 кошки британской породы вислоухие фото 169 британская вислоухая кошка фото цена 160 британская вислоухая кошка купить 156 британская вислоухая голубая кошка фото 129 британские вислоухие кошки характер 112 британская вислоухая кошка уход 112 вязка британских вислоухих кошек 98 британская короткошерстная вислоухая кошка 83 окрас британских вислоухих кошек 79

Чтобы не было переспама (а переспам может быть и по совокупности использования слишком большого количества ключей в тексте, в заголовке, в и т.д.), я бы не стал брать их все с включением основного запроса, но отдельные слова из них имеет смысл употребить в статье (фото, купить, характер, уход и т.д.) для того, чтобы статья лучше ранжировалась по большому количеству низко-частотных запросов.

Таким образом, у нас под статью про вислоухих кошек сформируется группа ключевых слов, которые мы употребим в статье. Точно также сформируются и группы ключевиков под другие статьи — вот и ответ на вопрос о том, как создать семантическое ядро сайта.

Частотность и конкуренция

Еще есть немаловажный момент, связанный с точной частотностью и конкуренцией — их обязательно нужно собрать в Key Collector. Для этого нужно выделить все запросы галочками и на вкладке «Частотности Yandex.Wordstat» нажать кнопку «Собрать частотности «!» — будет показана точная частнотность каждой фразы (т.е. именно с таким порядком слов и в таком падеже), это намного более точный показатель, чем общая частотность.

Для проверки конкуренции в том же Key Collector нужно нажать кнопку «Получить данные для ПС Яндекс» (или для Google), далее нажать «Рассчитать KEI по имеющимся данным». В результате программа соберет, сколько главных страниц по данному запросу находится в ТОП-10 (чем больше — тем сложнее туда пробиться) и сколько страниц в ТОП-10 содержат такой title (аналогично, чем больше — тем сложнее пробиться в топ).

Дальше нужно действовать исходя из того, какая у нас стратегия. Если мы хотим создать всеобъемлющий сайт про кошек, то нам не так важна точная частотность и конкуренция. Если же нам нужно только опубликовать несколько статей — то берем запросы, у которых самая высокая частотность и при этом самая низкая конкуренция, и на их основании пишем статьи.

Если вам знакома боль от «нелюбви» поисковиков к страницам вашего интернет-магазина, прочитайте эту статью. Я расскажу о пути к повышению видимости сайта, а точнее, о его первом этапе — сборе ключевых слов и составлении семантического ядра . Об алгоритме его создания и инструментах, которые при этом используются.

Заказать сбор семантического ядра у SEO-специалистов агентства Netpeak:

Зачем составлять семантическое ядро?

Для повышения видимости страниц сайта. Cделать так, чтобы поисковые роботы Яндекса и Google начали находить по запросам пользователей страницы именно вашего сайта. Безусловно, сбор ключевых слов (составление семантики) — первый шаг к этой цели. Дальше набрасывается условный «скелет» для распределения ключевых слов по разным посадочным страницам. А затем уже пишутся и внедряются статьи/метатеги.

Кстати, на просторах интернета можно найти множество определений семантического ядра.

1. «Семантическое ядро — упорядоченный набор поисковых слов, их морфологических форм и словосочетаний, которые наиболее точно характеризуют вид деятельности, товар или услугу, предлагаемые сайтом». Википедия .

Для сбора семантики конкурентов в Serpstat введите один из ключевых запросов, выберите регион, нажмите «Поиск» и перейдите в категорию «Анализ ключевых фраз». Затем выберите «SEO-анализ» и нажмите «Подбор фраз». Экспортируйте результаты:

2.3. Используем Key Collector/Словоёб для создания семантического ядра

Если нужно составить семантическое ядро для крупного интернет-магазина, без Key Collector не обойтись. Но если вы новичок, то удобней использовать бесплатный инструмент — Словоёб (пусть это название вас не пугает). Скачайте программу, а в настройках Яндекс.Директ укажите логин и пароль от своей Яндекс.Почты:
Создайте новый проект. Во вкладке «Данные» выберите функцию «Добавить фразы». Выберите регион и введите запросы, которые вы получили ранее:
Совет: создавайте отдельный проект под каждый новый домен, а под каждую категорию/посадочную страницу делайте отдельную группу. Например: Теперь соберите семантику из Яндекс.Вордстата. Откройте вкладку «Сбор данных» — «Пакетный сбор слов из левой колонки Yandex.Wordstat». В открывшемся окошке выберите галочку «Не добавлять фразы, если они уже есть в любых других группах». Впишите несколько самых популярных среди пользователей (высокочастотных) фраз и нажмите «Начать сбор»:

Кстати, для больших проектов в Key Collector можно собрать статистику из сервисов анализа конкурентов SEMrush, SpyWords, Serpstat (ex. Prodvigator) и других дополнительных источников.

Семантическое ядро - основа продвижения сайта в Сети. Без него не получится вывести сайт в лидеры на долгое время. Мы расскажем, из чего оно собирается, где что искать и какие инструменты для этого использовать.

Что такое семантическое ядро

Для упрощения понимания давайте будем исходить из того, что семантическое ядро (СЯ) - это все те слова, словосочетания и их вариации, которые полностью описывают содержимое вашего сайта. Чем точнее и качественнее будет собрано ядро, тем проще продвигать сайт.

Грубо говоря, это один большой длинный список слов и фраз (ключей), по которым пользователи ищут подобные товары и услуги. Общих рекомендаций по размеру ядра нет, но есть одно правило: чем больше и качественнее - тем лучше. Главное, не раздувать размер искусственно, чтобы сделать ядро больше. Если вы будете гнаться за размером в ущерб качеству, вся работа пойдёт насмарку - ядро работать не будет.

Приведём аналогию. Представьте, что вы - руководитель крупной строительной фирмы, которому нужно построить очень много объектов за короткий срок. У вас неограниченный бюджет, но нужно нанять на работу не меньше ста человек - таково требование профсоюза. Каких сто человек вы наймёте на такую ответственную работу - вообще любых, или будете тщательно отбирать, раз бюджет позволяет? А ведь кого наберёте - с теми и дома строить. Разумно предположить, что выбирать вы будете тщательно, потому что от этого зависит результат.

То же самое и с ядром. Чтобы оно работало даже на начальном уровне, хорошо бы, чтобы в нём было хотя бы сто ключей. И если в ядро вписывать что попало, лишь бы побольше, результат будет гарантированно провальный.

Общие правила построения семантического ядра

Один запрос - одна страница. Вы должны понимать, на какую одну страницу нужно отправить пользователя по каждому запросу. Нельзя делать так, чтобы на один запрос приходилось несколько страниц: возникает внутренняя конкуренция и качество продвижения резко падает.

Пользователь получает предсказуемый контент по своему запросу. Если клиент ищет способы доставки в свой регион, не отправляйте его на главную страницу сайта, если там этого нет. Иногда бывает так, что после составления ядра становится понятно, что нужно создавать новые страницы под поисковые запросы. Это нормально и обычная практика.

Ядро содержит все виды запросов (ВЧ, СЧ, НЧ). Про частотность - ниже. Просто держите в голове это правило, когда будете читать материал дальше. Проще говоря, вы должны распределить эти запросы по конкретным страницам своего сайта.

Пример таблицы распределения ядра по страницам сайта.

Способы сбора ядра

Неправильно: копировать у конкурентов

Способ, когда времени и денег нет, а ядро хоть как-то собрать нужно. Находим несколько своих прямых конкурентов, чем круче - тем лучше, а потом используем, например, spywords.ru , чтобы получить список ключей. Делаем так со всеми, объединяем запросы, выкидываем дубли - и получаем базу, от которой можно уже хоть как-то отталкиваться.

Минусы такого подхода очевидны: не факт, что вам нужно продвигаться по тем же самым запросам; разбор и приведение в порядок такого ядра может занять уйму времени.

Иногда бывает так, что даже у одинаковых конкурентов есть своя специфика в запросах, которую они учитывают, а вы нет. Или они делают упор на одно, а вы этим совсем не занимаетесь - ключи работают в пустоту и снижают рейтинг.

С другой стороны, чтобы привести в нормальный вид такую базу, нужно много времени, сил, а иногда и денег на оплату такого труда. Когда начинаешь считать экономику (а это нужно делать всегда в маркетинге), то часто понимаешь, что затраты на создание своего ядра с нуля будут такими же, или даже меньше.

Мы не рекомендуем использовать этот метод, если только у вас не полная катастрофа с проектом и нужно уже хоть как-то запуститься. Всё равно после запуска придётся почти всё переделывать, и работа окажется бесполезной.

Правильно: сделать самим семантическое ядро с нуля

Для этого полностью изучаем сайт, понимаем, какую аудиторию мы хотим привлечь, с какими проблемами, требованиями и вопросами. Думаем, как нас будут искать, соотносим это с целевой аудиторией, корректируем цели, если нужно.

Такая работа занимает много времени, за день всё успеть нереально. По нашему опыту, минимальное время на сбор ядра - неделя, при условии, что человек будет работать полный рабочий день только над этим проектом. Помните, что семантическое ядро - фундамент продвижения. Чем точнее мы его составим, тем проще будет на всех остальных этапах.

Есть одна опасность, про которую новички забывают. Семантическое ядро - это не та вещь, которая делается один раз и на всю жизнь. Над ним постоянно идёт работа, меняется бизнес, запросы и ключевики. Что-то исчезает, что-то устаревает, и всё это нужно сразу отражать в ядре. Это не значит, что можно сначала сделать плохо, раз потом всё равно доделывать. Это значит, что чем точнее ядро - тем быстрее можно в него вносить изменения.

Такая работа изначально стоит дорого даже внутри компании (если не заказывать СЯ внешней фирме), потому что требует квалификации, понимания того, как работает поиск, и полного погружения в проект. Ядром нельзя заниматься в свободное время, это должно стать основной задачей сотрудника или отдела.

Частота запросов показывает, как часто ищут такое слово или фразу в месяц. Формальных критериев для разделения по частотности нет, всё зависит от отрасли и профиля.

Например, фраза «купить телефон в кредит» имеет 7764 запроса в месяц. Для рынка телефонов это среднечастотный запрос. Есть то, что спрашивают намного чаще: «купить телефон» - больше миллиона запросов, высокочастотный запрос. И есть то, что спрашивают гораздо реже: «купить телефон в кредит через интернет» - всего 584 запроса, низкочастотный.

А фраза «купить бурильную установку» имеет всего 577 показов, но считается высокочастотным запросом. Это даже меньше, чем низкочастотный запрос из нашего предыдущего примера. Почему так?

Дело в том, что рынок телефонов и бурильных установок в штучном измерении отличается в тысячи раз. И количество потенциальных клиентов отличается во столько же. Поэтому то, что для одних много, для других - очень мало. Всегда нужно смотреть на объём рынка и знать примерно общее количество потенциальных клиентов в том регионе, где работаете.

Деление запросов по относительной частотности в месяц

Высокочастотные. Их нужно вписывать в метатеги каждой страницы сайта вообще, и использовать для общего продвижения сайта. Конкурировать по ВЧ-запросам крайне сложно, проще просто быть «в тренде» - это бесплатно. В любом случае включайте их в ядро.

Среднечастотные. Это те же высокочастотные, но сформулированные чуть точнее. По ним идёт не такая жёсткая конкуренция в блоке контекстной рекламе, как с ВЧ, поэтому их уже можно использовать для продвижения за деньги, если позволяет бюджет. Такие запросы уже могут приводить целевой трафик вам на сайт.

Низкочастотные. Рабочая лошадка продвижения. Именно НЧ-запросы дают основную долю трафика при грамотной настройке. По ним можно свободно давать рекламу, оптимизировать под них страницы сайта или даже делать новые, если без этого не обойтись. Хорошее СЯ примерно на 3/4 состоит из таких запросов и постоянно расширяется за счёт них.

Сверхнизкочастотные. Самые редкие, но самые конкретные запросы, например «купить телефон ночью в Твери в кредит». С ними редко кто работает при составлении, поэтому конкуренции практически нет. У них есть минус - их действительно очень редко спрашивают, а времени они занимают столько же, как и остальные. Поэтому ими есть смысл заниматься, когда вся основная работа уже сделана.

Виды запросов в зависимости от назначения

Информационные. Их используют, чтобы узнать что-то новое или получить информацию по теме. Например: «как выбрать банкетный зал» или «какие бывают ноутбуки». Все подобные запросы должны вести в информационные разделы: блог, новости или подборки по темам. Если видите, что набирается много информационных запросов, а закрывать их на сайте нечем, то это повод сделать новые разделы, страницы или статьи.

Транзакционные. Транзакция = действие. Купить, продать, поменять, получить, доставить, заказать и так далее. Чаще всего такие запросы закрываются страницами конкретных товаров или услуг. Если у вас большинство транзакционных вопросов высоко- или среднечастотные - снижайте частотность и уточняйте запросы. Это позволит вам точно направлять людей на нужные страницы, а не оставлять их на главной без конкретики.

Прочие. Запросы без ярко выраженного намерения или действия. «Красивые шары» или «лепка поделок из глины» - про них нельзя сказать конкретно, зачем человек это спросил. Может, он хочет это купить. Или узнать технологию. Или почитать подробнее, как это делать. Или ему нужно, чтобы кто-то это сделал за него. Непонятно. С такими запросами нужно работать аккуратно и тщательно вычищать от мусорных ключей.

Для продвижения коммерческого сайта, в основном, надо использовать транзакционные запросы, а информационных избегать - по ним поисковая система показывает информационные порталы, википедию, сайты агрегаторы. А с ними конкурировать по продвижению практически нереально.

Мусорные ключи

Иногда в запросы попадают слова или фразы, которые не относятся к вашей отрасли или вы просто этим не занимаетесь. Например, если вы делаете сувениры только из хвойных пород дерева, вам не нужен, скорее всего, запрос «сувениры из бамбука». Получается, что «бамбук» - мусорный элемент, который засоряет ядро и мешает чистоте поиска.

Такие ключи мы собираем в отдельный список, они нам пригодятся для контекстной рекламы. Мы указываем их как то, что искать не нужно, и тогда по запросу «сувениры из сосны» наш сайт будет в выдаче, а по запросу «сувениры из бамбука» - нет.

То же самое делаем по всему ядру - находим то, что не относится к профилю, убираем из СЯ и заносим в отдельный список.

Каждый запрос состоит из трёх частей: спецификатор, тело и хвост.

Общий принцип такой: тело задаёт предмет поиска, спецификатор - то, что нужно сделать с этим предметом, а хвост - уточняет весь запрос.

Комбинируя разные спецификаторы и хвосты для запросов, можно получить много подходящих вам ключевиков, которые войдут в ядро.

Поэтапная сборка ядра с нуля

Самое первое, что можно сделать - просмотреть все страницы своего сайта и выписать все названия товаров и устойчивые словосочетания товарных групп. Для этого смотрим на заголовки категорий, разделов и основных характеристик. Всё будем записывать в Экселе, пригодится на следующих этапах.

Например, если у нас магазин канцтоваров, получим следующее:

Затем добавляем характеристики к каждому запросу - наращиваем «хвост». Для этого выясняем, какими свойствами обладают эти товары, что ещё можно про них сказать, и записываем их в отдельный столбец:

После этого, добавляем «спецификаторы»: глаголы действия, которые относятся к нашей теме. Если, например, у вас магазин, то это будет «купить», «заказать», «в наличии» и так далее.

Собираем из этого в Экселе отдельные фразы:

Собираем расширения

Разберём три характерных инструмента для сбора ядра - два бесплатных и платный.

Бесплатный. Вбиваем в него нашу фразу, получаем список того, что похоже на наш запрос. Внимательно в него смотрим и выбираем то, что нам подходит. Так прогоняем всё, что у нас получилось на первом этапе. Работа долгая и нудная.

В результате у вас будет семантическое ядро, которое максимально точно отражает содержание вашего сайта. С ним уже можно полноценно работать дальше при продвижении.

При поиске слов ориентируйтесь на тот регион, где продаёте товар или услуги. Если вы работаете не по всей России, переключитесь в режим «по регионам» (сразу под строкой поиска). Это позволит получить точную картину запросов в нужном вам месте.

Учитывайте историю запросов. Спрос - не статичен, про что многие забывают. Например, если в конце января поискать запрос «купить цветы», может показаться, что цветами почти никто не интересуется - всего сотня-другая запросов. Зато если поискать это же в начале марта, картина полностью другая: тысячи пользователей ищут такое. Поэтому, помните про сезонность.

Тоже бесплатный, помогает найти и подобрать ключевые слова, спрогнозировать запросы и даёт статистику по эффективности.

Key Collector. Программа - настоящий комбайн, который может сделать 90% всей работы по сбору семантического ядра. Но платная - почти 2000 рублей. Ищет ключи по многим источникам, смотрит на рейтинги и запросы и собирает аналитику по ядру.

Основные возможности программы:

сбор ключевых фраз;

определение стоимости и ценности фраз;

определение релевантных страниц;

Всё, что она умеет, можно сделать бесплатно, используя несколько бесплатных аналогов, но это займёт в разы больше времени. Автоматизация - конёк этой программы.

На выходе вы получаете не только семантическое ядро, но и полную аналитику и рекомендации по улучшению.

Убираем мусорные ключи

Теперь нужно почистить наше ядро, чтобы сделать его ещё эффективнее. Для этого используем Key Collector (он сделает это автоматически), или ищем мусор вручную в экселе. На этом этапе нам понадобится тот список из ненужных, вредных или лишних запросов, который мы составили раньше

Удаление мусора и ключей можно автоматизировать

Группируем запросы

Теперь после сбора все найденные запросы нужно сгруппировать. Это делается для того, чтобы ключевики, близкие друг к другу по смыслу, отнести к одной странице, а не размывать по разным.

Для этого объединяем похожие по смыслу запросы, ответы на которые нам даёт одна и та же страница, и рядом пишем, куда они относятся. Если такой страницы нет, но запросов в группе много, скорее всего, имеет смысл создать новую страницу или даже раздел на сайте, куда и отправлять всех по таким запросам.

Пример группировки, опять же, можно посмотреть в нашей рабочей таблице.

Используйте все программы автоматизации, до которых сможете дотянуться. Это здорово экономит время на построения ядра.

Не собирайте на одной странице информационные и транзакционные запросы.

Чем больше НЧ-запросов в текстах - тем лучше. Но не увлекайтесь, не превращайте текст на сайте в нечто, понятное только роботом. Помните, что живые люди тоже вас будут читать.

Делаете периодически чистку и обновление ядра. Следите за тем, чтобы информация в семантическом ядре была всегда актуальной и отражала текущее положение. Иначе вы будете тратить деньги на то, что не сможете в итоге дать своим клиентам.

Помните о пользе. В погоне за поисковым трафиком не забывайте, что люди приходят из разных источников, а остаются там, где интересно. Если у вас всё время актуальное ядро и при этом текст на страницах написан человеческим, понятным и интересным языком - вы всё делаете правильно.

Напоследок - ещё раз сам алгоритм построения ядра:

1. находим все ключевые слова и фразы

2. чистим их от мусорных запросов

3. группируем запросы по смыслу и сопоставляем со страницами сайта.

Хотите заняться продвижением сайта, но понимаете, что собирать семантическое ядро - долго? Или не хотите разбираться во всех нюансах, а просто получить результат? Пишите на , и мы подберём для вас оптимальный вариант продвижения вашего сайта.

(11 )

В этом посте мы расскажем полный алгоритм сбора семантического ядра преимущественно для информационного сайта, но данный подход можно применять и для коммерческих сайтов.

Первоначальная семантика и создание структуры сайта

Подготовка слов для парсинга и первоначальная структура сайта

Перед тем как начать парсить слова, нам надо знать их. Поэтому нам надо составить первоначальную структуру нашего сайта и начальные слова для парсинга (их еще называют маркерами).

Первоначальную структуру и слова вы можете посмотреть:

1. Используя логику, слова из головы (если вы понимаете в теме).
2. У своих конкурентов, которых вы проанализировали при выборе ниш или введя ваш основной запрос.
3. Из википедии. Обычно это выглядит вот так:

4. Смотрим wordstat по вашим основным запросам и правую колонку.
5. Другие тематические книги и справочники.

Например, тема нашего сайта – болезни сердца. Понятно, что у нас в структуре обязательно должны быть все болезни сердца.

Вам не обойтись без медицинского справочника. Я бы не стал смотреть конкурентов, потому что у них могут быть представлены не все заболевания, скорее всего они не успели их охватить.

И ваши начальные слова для парсинга будут именно все болезни сердца, а уже исходя из ключей, которые мы напарсим, вы будете строить структуру сайта, когда начнете их группировать.

К тому же вы можете взять все препараты для лечения сердца, как расширение темы и т.д. Вы смотрите википедию, рубрики у конкурентов на сайте, wordstat, думаете логически и таким способом находите еще маркерные слова, которые будете парсить.

Структура сайта

Вы можете смотреть конкурентов для общего ознакомления, но не всегда вы должны делать структуру как у них. Вы должны исходить в большей степени из логики вашей целевой аудитории, они же вводят запросы, которые вы парсите у поисковиков.

Например, как поступить? Перечислить все болезни сердца, а от них уже вести симптомы, лечение. Или все-таки сделать рубрики симптомы, лечение, а от них уже вести болезни. Эти вопросы обычно решаются при группировке ключевых слов исходя из данных поисковых систем. Но не всегда, иногда вам придется делать выбор самостоятельно и решать, как сделать структуру наилучшей, потому что запросы могут пересекаться.

Вы должны всегда помнить, что структура создается на протяжении всего сбора семантики и иногда в первоначальном виде она состоит из нескольких рубрик, а уже при дальнейшей группировке и сборе она расширяется, так как вы начинаете видеть запросы и логику. А иногда вы сможете её составить и сразу не парся ключевые слова, потому что знаете хорошо тематику или она отлично представлена у конкурентов. Никакой системы по составлению структуры сайта нет, можно сказать это лично ваше творчество.

Структура может быть вашей индивидуальной (отличающейся от конкурентов), но обязательно она должна быть удобной для людей, отвечать их логике, а значит логике и поисковых систем и такой, чтобы можно было охватить все тематические слова в вашей нише. Она должна быть лучшей и удобной!

Думайте наперед. Бывает такое что берете нишу, а потом вам охота ее расширить, и вы начинаете менять структуру всего сайта. А созданную структуру на сайте, очень сложно и муторно менять. В идеале вам надо будет поменять урлы вложения и все это переклеить на самом сайте. Короче, это жесть какая нудная и очень ответственная работа, так что сразу определяйтесь окончательно по мужски, что и как у вас должно быть!

Если вы очень плохо знакомы с тематикой создаваемого сайта и не знаете, как будет строиться структура, не знаете какие начальные слова для парсинга взять, то 1 и 2 этап сбора вы можете менять местами. То есть сначала пропарсить конкурентов (как их парсить разберем ниже), посмотреть их ключи, на основе этого составить структуру и начальные слова для парсинга, а потом уже парсить wordstat, подсказки и т.д.

Для составления структуры я использую майнд менеджер - Xmind . Он бесплатен и в нем есть все основное.

Простенькая структура выглядит вот так:


Это структура коммерческого сайта. Обычно в информационных сайтах нет пересечений и всяких фильтров карточек товаров. Но и эта структура не сложная, составлялась для клиента, чтобы он понял. Обычно мои структуры состоят из множество стрелок и пересечений, комментариев - в такой структуре могу разобраться только я сам.

Можно ли создавать семантику по ходу наполнения сайта?

Если семантика легкая, вы уверены в теме и знаете её, то можно делать семантику параллельно с наполнением сайта. Но первоначальную структуру надо накидать обязательно. Я сам иногда такое практикую в очень узких нишах или в очень широких, чтобы не тратить много времени на сбор семантики, а сразу запускать сайт, но всё-таки не советовал бы так делать. Вероятность ошибок очень большая, если у вас нет опыта. Все-таки легче, когда вся семантика готова, вся структура готова и все разгруппировано и понятно. К тому же в готовой семантике вы видите каким ключам надо уделить первостепенное внимание, которые не имеют конкуренцию и принесут больше посетителей.

Еще здесь надо отталкивать от размера сайта, если ниша широкая, то нет смысла собирать семантику, лучше ее делать по ходу, потому что на сбор семантике может уйти месяц и более.

Так вот мы накидали первоначально структуру или не накидали, решили идти вторым этапом. У нас есть список начальных слов или фраз нашей тематики, которые мы можем начать парсить.

Парсинг и работа в keycollector

Для парсинга конечно же использую keycollector . Я не буду останавливаться на настройке keycollectora, вы можете почитать хелп этой программы или найти статьи по настройке в интернете, их очень много и там все подробно расписано.

При выборе источников парсинга стоит рассчитывать свои трудозатраты и их эффективность. Например, если вы будете парсить базу Пастухова или MOAB, то вы закапаетесь в куче мусорных запросов, которые надо будет отсеивать, а это время. И по моему мнению, это того не стоит, чтобы найти парочку каких-то запросиков. На тему баз есть очень интересное исследование от RushAnalytics, конечно же они там хвалят себя, но если на это не обращать внимание, весьма интересные данные по процентам плохих ключевых слов http://www.rush-analytics.ru/blog/analytica-istochnikov-semantiki

На первом этапе я парщу wordstat, adwords, их подсказки и использую базу ключевых слов Букварикс (десктопная версия бесплатна). Так же раньше просматривал подсказки из Youtube вручную. Но недавно keycollector добавил возможность их парсить, и это прелестно. Если вы полный извращенец, то можете сюда добавить другие базы ключевых слов.

Запускаете парсинг и понеслось.

Чистка семантического ядра для информационного сайта

Мы спарсили запросы и у нас получился список различных слов. В нем конечно же присутствуют нужные слова, а так же и мусорные – пустые, не тематические, не актуальные и т.д. Поэтому их надо почистить.

Ненужные слова я не удаляю, а перемещаю их в группы, потому что:

  1. Они в дальнейшем могут стать пищей для размышления и приобрести актуальность.
  2. Исключаем вероятность случайного удаления слов.
  3. При парсинге или добавление новых фраз, они не будут добавляться, если поставить галочку.


Я иногда забывал её ставить, поэтому настраиваю парсинг в одной группе и парсю ключи только в ней, чтобы сбор не дублировался:


Вы можете работать так или так, кому как удобно.

Сбор частотностей

Собираем у всех слов через direct, базовую частотность [W] и точную [“!W”].


Все что не собралось, дособираем через wordstat.

Чистка однословников и не формат

Фильтруем по однословникам, смотрим их и убираем не нужные. Есть такие однословники по которым нет смысла продвигаться, они не однозначные или дублируют другой однословный запрос.


Например, у нас тематика - болезни сердца. По слову “сердце” нет смысла продвигаться, не понятно, что человек имеет ввиду - это слишком широкий и неоднозначный запрос.

Так же смотрим, по каким словам не собралась частотность – это либо в словах содержатся спец символы, либо слов в запросе более 7. Переносим их в неформат. Малая вероятность что такие запросы вводят люди.

Чистка по общей и точной частотности

Все слова с общей частотностью [W] от 0 до 1 убираем.

Так же убираю и все от 0 до 1 по точной частотностью [”!W”].

Разношу их по разным группам.

В дальнейшем в этих словах можно найти нормальные логические ключевые слова. Если ядро маленькое, то можно сразу вручную все слова с нулевой частотностью пересмотреть и оставить, которые как вам кажется вводят люди. Это поможет охватить тематику полностью и возможно, по таким словам будут переходить люди. Но естественно эти слова надо использовать в последнюю очередь, потому что по ним большого трафика точно не будет.

Значение от 0 до 1 тоже берется исходя от тематики, если ключевых слов много, то можно фильтровать и от 0 до 10. То есть все зависит от широты вашей тематики и ваших предпочтений.

Чистка по полноте охвата

Теория здесь такова: например, есть слово – “форум”, его базовая частотность составляет 8 136 416, а точная частотность 24 377, как видим отличие более чем в 300 раз. Поэтому можно предположить, что данный запрос пустой, он включает очень много хвостов.

Поэтому, по всем словам, я рассчитываю, такое KEI:

Точная частотность / Базовая частотность * 100% = полнота охвата

Чем меньше процент, тем больше вероятность что слово пустое.

В KeyCollector эта формула выглядит вот так:

YandexWordstatQuotePointFreq / (YandexWordstatBaseFreq+0.01) * 100

Здесь тоже все зависит от тематики и количества фраз в ядре, поэтому можно убирать полноту охвата меньше 5%. А где ядро большое то можно не брать и 10-30%.

Чистка по неявным дублям

Чтобы почистить неявные дубли, нам необходимо по ним собрать частотность Adwords и ориентироваться по ней, потому что она учитывает порядок слов. Экономим ресурсы, поэтому будем собирать этот показатель не у всего ядра, а только у дублей.


Таким способом мы нашли и отметили все не явные дубли. Закрываем вкладку - Анализ неявных дублей. Они у нас отметились в рабочей группе. Теперь отобразим только их, потому что съем параметров происходит только тех фраз, которые у нас показаны в группе на данный момент. И только потом запускаем парсинг.


Ждем, когда Adwords снимет показатели и заходим в анализ неявных дублей.


Выставляем вот такие параметры умной групповой отметки и нажимаем – выполнить умную проверку. Таким способом у нас в группе дублей не отметятся только самые высокочастотные запросы по Adwords.

Все дубли лучше конечно еще пробежаться и глянуть вручную, вдруг там что-то выставилось не так. Особенно уделить внимание группам, где нет показателей частотности, там дубли отмечаются случайно.

Все что вы отмечаете в анализе неявных группах, это проставляется и в рабочей группе. Так что после завершения анализа, просто закрываете вкладку и переносите все отмеченные неявные дубли в соответствующую папку.

Чистка по стоп словам

Стоп слова я тоже делю на группы. Отдельно заношу города. Они могут пригодится в дальнейшем, если мы надумаем делать каталог организаций.

Отдельно заношу слова содержащие в себе слова фото, видео. Вдруг они когда-нибудь пригодятся.

А так же, “витальные запросы”, например википедия, отношу сюда и форум, а так же в мед теме сюда могут относится – малышева, комаров и т.д.

Все так же зависит от тематики. Можно еще делать отдельно и коммерческие запросы – цена, купить, магазин.

Получается вот такой список групп по стоп словам:

Чистка накрученных слов

Это касается конкурентных тематик, их частенько накручивают конкуренты, чтобы ввести вас в заблуждение. Поэтому необходимо собрать сезонность и отсеять все слова с медианой равной 0.

А так же, можно глянуть соотношение базовой частотности к средней, большая разница может тоже указывать на накрутку запроса.

Но надо понимать, что эти показатели могут говорить и о том, что это новые слова по которым только недавно появилась статистика или они просто сезонные.

Чистка по гео

Обычно проверка по гео для информационных сайтов не требуется, но на всякий случай распишу этот момент.

Если есть сомнения, что часть запросов геозависимые, то лучше это проверить через сбор Rookee, он хоть бывает и ошибается, но намного реже чем проверка этого параметра по Яндексу. Потом после сбора Rookee стоит проверить все слова вручную, которые указались как геозависимые.

Ручная чистка

Теперь наше ядро стало в несколько раз меньше. Пересматриваем его в ручную и убираем ненужные фразы.

На выходе получаем вот такие группы нашего ядра:

Желтый - стоит покопаться, можно найти слова на будущее.

Оранжевый - могут пригодиться, если будем расширять сайт новыми сервисами.

Красный - не пригодятся.

Анализ конкуренции запросов для информационных сайтов

Собрав запросы и почистив их теперь нам надо проверить их конкуренцию, чтобы понимать в дальнейшем - какими запросами надо заниматься в первую очередь.

Конкуренция по количеству документов, title, главных страниц

Это все легко снимается через KEI в KeyCollector.


Получаем данные по каждому запросу, сколько документов найдено в поисковой системе, в нашем пример в Яндексе. Сколько главных страниц в выдаче по этому запросу и вхождений запроса в заголовок.

В интернете можно встретить различные формулы расчета этих показателей, даже вроде в свежем установленном KeyCollector по стандарту встроена какая-то формула расчета KEI. Но я им не следую, потому что надо понимать что каждый из этих факторов имеет разный вес. Например, самый главный, это наличие главных страниц в выдаче, потом уже заголовки и количество документов. Навряд ли эту важность факторов, как то можно учесть в формуле и если все-таки можно то без математика не обойтись, но тогда уже эта формула не сможет вписаться в возможности KeyCollector.

Конкуренция по биржам ссылок

Здесь уже интереснее. У каждой биржи свои алгоритмы расчета конкуренции и можно предположить, что они учитывают не только наличие главных страниц в выдаче, но и возраст страниц, ссылочную массу и другие параметры. В основном эти биржи конечно же рассчитаны на коммерческие запросы, но все равно более менее какие то выводы можно сделать и по информационным запросам.

Собираем данные по биржам и выводим средние показатели и уже ориентируемся по ним.


Я обычно собираю по 2-3 биржам. Главное чтобы все запросы были собраны по одним и тем же биржам и выведено среднее число только по ним. А не так, что какие то запросы собрали одними биржами, а другие другими и вывели среднее.

Для более наглядного вида можно применить формулу KEI, которая покажет стоимость одного посетителя исходя из параметров бирж:

KEI = AverageBudget / (AverageTraffic +0.01)

Средний бюджет по биржам делить на средний прогноз трафика по биржам, получаем стоимость одного посетителя исходя из данных бирж.

Конкуренция по мутаген

Его нет в keycollector, но это не помеха. Без проблем все слова можно выгрузить в Excel, а потом прогнать через KeyCollector.

Чем же лучше Keyso? У него больше база по сравнению с конкурентами. Она у него чистая, нет фраз которые дублируются и пишутся в разном порядке. Например, вы не найдете там таких повторяющихся ключей “диабет 1 типа”, “1 типа диабет”.

Так же Keyso умеет палить сайты с одним счетчиком Adsense, Analytics, Leadia и др. Вы можете увидеть какие еще есть сайты, у владельца анализируемого сайта. Да, и вообще по поиску сайтов конкурентов, считаю это лучшее решение.

Как работать с Keyso?

Берем один любой сайт своего конкурента, лучше конечно побольше, но не особо критично. Потому что мы будем работать в две итерации.Вводим его в поле. Жмакаем - анализировать.

Получаем информацию по сайту, нам здесь интересны конкуренты, жмем открыть всех.


У нас открываются все конкуренты.


Это все сайты, у которых хоть как-то пересекаются ключевые слова с нашим анализируемым сайтом. Здесь будет youtube.com, otvet.mail.ru и т.д., то есть крупные порталы, которые пишут обо всем подряд. Нам они не нужны, нам нужны сайты чисто только по нашей тематике. Поэтому мы их фильтруем по следующим критериям.

Похожесть – процент общих ключей от общего числа данного домена.

Тематичность – количество ключей нашего анализируемого сайта в ключах домена конкурента.

Поэтому пересечение этих параметров уберет общие сайты.

Ставим тематичность 10, похожесть 4 и смотрим, что у нас получится.

Получилось 37 конкурентов. Но все равно еще их проверим вручную, выгрузим в Excel и если надо уберем не нужные.


Теперь переходим на вкладку групповой отчет и вводим всех наших конкурентов, которых мы нашли выше. Жмем – анализировать.

Получаем список ключевых слов этих всех сайтов. Но мы еще полностью не раскрыли тематику. Поэтому мы переходим в конкуренты группы.

И теперь мы получаем всех конкурентов, тех всех сайтов которые мы ввели. Их в несколько раз больше и здесь так же много общетематических. Фильтруем их по похожести, допустим 30.

Получаем 841 конкурента.


Здесь мы можем посмотреть, сколько страниц у этого сайта, трафика и сделать выводы, какой же конкурент самый эффективный.

Экспортируем всех их в Excel. Перебираем руками и оставляем только конкурентов нашей ниши, можно отметить самых эффективных товарищей, чтобы потом оценить их и глянуть какие у них есть фишки на сайт, запросы дающие много трафика.

Теперь мы опять заходим в групповой отчет и добавляем уже всех найденных конкурентов и получаем список ключевых слов.

Здесь мы можем список сразу фильтрануть по “!wordstat” Больше 10.


Вот они наши запросы, теперь мы можем их добавить в KeyCollector и указать, чтобы не добавлялись фразы, которые есть уже в любой другой группе KeyCollector.

Теперь мы чистим наши ключи, и расширяем, группируем наше семантическое ядро.

Услуги по сбору семантического ядра

В данной отрасли можно найти не мало организаций, которые готовы предложить вам услуги по кластеризации. Например, если вы не готовы тратить время на то, чтобы самостоятельно изучить тонкости кластеризации и выполнить ее собственными руками, то можно найти множество специалистов, готовых выполнить эту работу.

Yadrex

Одна из первых на рынке, кто начал использовать искусственный интеллект для создания сематического ядра. Руководитель компании сам профессиональный вебмастер и специалист по SEO технологиям, поэтому он гарантирует качество работы своих сотрудников.

Кроме того, вы можете позвонить по указанным телефонам, чтобы получить ответы на все интересующие вас вопросы относительно работы.

Заказывая услуги, вы получите файл, где будут указаны группы содержания ядра и его структура. Дополнительно вы получаете структуру в mindmup.

Стоимость работы варьируется в зависимости от объема, чем больше объем работы, тем дешевле стоимость одного ключа. Максимальная стоимость для информационного проекта будет 2,9 рублей за один ключ. Для продающего 4,9 рублей за ключ. При большом заказе предоставляются скидки и бонусы.

Заключение

На этом создание семантического ядра для информационного сайта завершено.

Советую вам мониторить историю изменений программы KeyCollector, потому что она постоянно дополняется новыми инструментами, например недавно был добавлен youtube для парсинга. С помощью новых инструментов, вы можете ещё больше расширить свое семантическое ядро.

Рассказать друзьям