Блог > Продвижение SEO
Чек лист SEO
Техническая составляющая
Грамотная оптимизация технической части — залог успеха в занятии сайтом высоких позиций в поиске, а также в его быстродействии, что непременно вызовет у посетителей приятное впечатление в процессе эксплуатации сайта.
1. Настройка robot.txt
-
- Служебные разделы (фильтры и сортировки, результаты поиска по сайту, станицы регистрации и авторизации, административные разделы, версии для печати, кэш страниц, логи), а также другие неважные разделы недоступны для индексации;
- Для роботов разных поисковиков (например, Google и Яндекс) определены свои User-Agent, согласно инструкциям на сайтах поддержки компаний.
Для проверки стоит самостоятельно осмотреть на предмет ошибок, убедиться в отсутствии запрета индексации страниц, перейдя в инструменты вебмастеров Яндекса и Google, воспользоваться букмарклетом для проверки запретов в robots.txt.
2. Правильно составленный sitemap.xml
-
- В robots.txt присутствует ссылка, ведущая на xml-версии карты сайта
- По результатам анализа вебмастерских не выявлено ошибок;
- Отсутствуют не допущенные для индексации страницы;
- Реальный протокол адресов совпадает с протоколом в sitemap;
- Правильно указаны элементы priority (важность страниц) и lastmod (даты крайнего обновления страницы)
В качетве проверки: самостоятельно выявить ошибки, воспользоваться вебмастерами Яндекса и Google
3. Отсутствие технических копий страниц
Для того чтобы избежать тех. дублей следует:
-
- Наладить 301 редирект с www и в обратную сторону.
- Обеспечить перенаправление между адресами со слешем на конце и без него в обе стороны.
Также дубли могут возникать при условии, что основная страница доступна по адресам с окончаниями .html и .php.
Для проверки рекомендуется приписать к адресу или удалить из него «www.», убедиться в редиректе, а затем проделать ту же операцию со слэшем в конце.
4. Указание канонических страниц
Для указания канонической страницы, то есть той, которой будут отдавать предпочтение поисковики при индексации, нужно добавить ее адрес, используя атрибут rel=»canonical» в HTML-код или HTTP-заголовок. При этом для такой страницы будут учитываться ссылки и поведенческие факторы с других страниц (неканонических).
Для проверки используйте такие инструменты как Netpeak Spider, Xenu, Screaming Frog SEO Spider, ComParser.
5. Пагинация
Согласно последним рекомендациям от Google по поводу страниц пагинации, лучшим вариантом является использование тактики single-page content (весь контент размещается на одной странице). Что касается Яндекса, тут при схожести контента страниц, стоит пользоваться каноническими страницами. Оформление страницы угодит обоим посковикам.
Для проверки: после самостоятельного розыска ошибок, воспользуйтесь специальными плагинами: Screaming Frog SEO Spider, Netpeak Spider и др.
6. Предотвращение исключения продвигаемых страниц
Яндекс может исключать некоторые продвигаемые страницы, если на них нет полезного контента, если эта страница не лучшего качества или она принимается за дубль другой.
Для проверки используйте раздел «Страницы в поиске» в вебмастере Яндекса.
7. Отсутствие битых ссылок
Для того чтобы избежать тех. дублей следует:
-
- Ни одна из внутренних ссылок не ведет на несуществующие страницы;
- На несуществующей странице показывается код ответа 404;
- Счетчики фиксируют переход на 404 страницу, при этом налажено перенаправление для внешних ссылок, ведущих на несуществующие страницы ресурса.
Для проверки наличия битых ссылок на сайте используйте Xenu, Netpaek Spider, ComParser; внешних битых ссылок на ваш ресурс воспользуйтесь разделом «Внешние ссылки» в вебмастере Яндекса.
8. Сайт не содержит циклических ссылок
Циклическая ссылка – ссылка на странице, ведущая на эту же страницу. Возможно два решения этой задачи:
- Деактивация этих ссылок.
- Закрытие их от роботов с помощью тега .
Для проверки воспользуйтесь анализом контента сайта на «СайтРепорт».
9. Прямые редиректы
Иногда на страницах сайта встречаются ссылки, направляющие на другую страницу не напрямую, а через третью. Получается, для смены страницы требуется три перехода вместо двух, что сильно съедает краулинговый бюджет на пустом месте.
Для проверки воспользуйтесь Netpeak Spider, Screaming Frog SEO Spider.
10. Last Modified и If-Modified-Since заголовки
Настроенные заголовки, сообщающие роботу о том, изменялась ли страница после его крайнего посещения, могут также экономить краулинговый бюджет. Например, в Google бюджет будет тратиться только на новые страницы или страницы с внесенными изменениями, что также улучшит индексацию. Для яндексовского робота не все так однозначно, так как заголовки для него всего лишь рекомендация, исполнение которой не обязательно.
Для проверки используйте SeoAuditor.
11. Нет страниц со смешенным содержимым
Тут имеется в виду то, что страничка может быть принята за частично зашифрованную, если она содержит контент, передаваемый протоколом, отличным от ее протокола. Например, страница с протоколом HTTPS, а контент передается по HTTP.
Для проверки: Report Uri.
12. Правильные URL
Два главных правила при составление URL:
-
- Общая длина адреса в идеале не должна превышать 100 символов;
- Слова приоритетнее численно-буквенных идентификаторов.
Для проверки воспользуйтесь Netpeak Spider, Screaming Frog SEO Spider.
13. Только строчные буквы в URL
Два главных правила при составление URL:
Иногда адрес сайта может содержать заглавные буквы, будь то желание оптимизатора или ошибка движка. При этом доступ к страничке также будет осуществляться через идентичный адрес, но со строчными буквами. Загвоздкой является то, что поисковые системы воспринимают эти адреса как разные и копии друг друга. Вот почему стоит пользоваться сточными буквами. В случае если адрес с заглавными буквами все такие появился в индексе (такое возможно, если на Вас была оставлена ссылка с ошибкой), нужно организовать редирект на основной адрес.
Для проверки пользуются Xenu, Netpeak Spider.
14. Сервер не выдает ошибок
Если при краулинге имеются страницы со статусом 5**, стоит искать ошибки сервера или ошибки с файлом .htaccess. Из возможных причин можно выделить зависающие скрипты или большой трафик на сервере.
Для проверки воспользуйтесь инструментами Netpeak Spider, Xenu ComParser.
15. Безошибочная верстка
Хотя добиться идеальной верстки на сайте достаточно сложно, но грубых ошибок все же быть не должно. Грамотно сверстанный сайт позволит поисковым системам без затруднений обработать документ, но, несмотря на это, они не приравнивают сайт с невалидным кодом к плохому.
Для проверки используйте W3C.
16. Введение микроразметки
Благодаря семантической разметке поисковикам легче обрабатывать информацию сайта, что, в свою очередь, способствует появлению хорошего краткого описания в поиске и увеличивает уникальность карт товаров.
В разметку можно включить:
-
- Отзывы;
- Контактные данные;
- Карточки товаров;
- Медиаконтент;
- Навигацию по сайту.
Для проверки подойдет SEO META in 1 CLICK, гугловский инструмент проверки.
17. Open Graph разметка
При использовании данной разметки появляется возможность задавать некоторые параметры, являющиеся контентом в информационном блоке (сниппете). Такой блок используется, когда пользователи делятся сайтом в социальной сети. В качестве настраиваемых параметров могу выступать заголовок, описание, изображения и др. В вебмастере Яндекса есть подробная инструкция по Open Graph.
Для проверки используйте плагин SEO META in 1 CLICK, SeoLik.
18. Скорая загрузка сайта
В наше время каждый второй пользователь скорее закроет сайт и перейдет на другой, нежели будет ждать долгую загрузку. Для того чтобы угодить пользователю, современные стандарты диктуют высокую скорость загрузки страниц. Для достижения этого нужно:
-
- Скрипты и стили поместить в разные файлы;
- Использовать GZIP сжатие
- Уменьшить время отзыва сервера;
- Уменьшить длину HTML кода;
- Снизить вес изображений, не в ущерб качеству;
- Подключать кэш браузера.
Для проверки подойдут инструменты: GTmetrix, PageSpeed Insights.
19. Разные версии сайта
Страницы сайта должны быть адаптированы под разные устройства (ПК, планшет, смартфон). Этот параметр учитывается поисковиками.
Для проверки: специальный инструмент «Проверка мобильных страниц» в вебмастере Яндекса, а также валидатор Google Search Console.
20. Необходимый атрибут «rel=alternate»
Для того чтобы сообщить поисковику о том, что у сайта существует и другая версия (для планшетов, смартфонов), необходимо на всех страницах компьютерной версии указать тег link, показывающий определенную мобильную версию. На мобильной же версии сайта стоит добавлять атрибут rel=canonical, указывающий на аналогичную страницу компьютерной версии.
21. Работа сайта не зависит от смены браузера
Вне зависимости от того, в каком браузере открывается сайт, верстка, структура и внешний вид сайта должны быть на должном уровне.
Для проверки воспользуйтесь BrowserShots.
22. Правильный выбор сервера с учетом потребностей сайта
Если нагрузка на сервер будет превышать его возможности, сработает директива Craw-delay, установленная в robots.txt. Ее функция состоит в задании роботу более подходящего интервала между загрузкой страниц.
Для проверки: Load Impact.
23. Разметка страниц с разными языковыми версиями
Для таких страниц имеет смысл добавить в адреса всех версий атрибут rel=»alternate» hreflang=»x».
При этом пользуясь следующими инструментами для проверки: плагин SEO META in 1 CLICK, Screaming Frog SEO Spider и не забывать про визуальный осмотр.
24. Отсутствие вирусов на сайте
Ваш сайт сильно упадет в рейтинге поиска, если на нем обнаружится угроза безопасности посетителя.
Для предупреждения угрозы проверяйте сайт в разделе «Диагностика сайта» в вебмастере Яндекса.
25. Отсутствие клонов сайта в индексе
Если это условие не выполнено, тестовый домен, оставшийся по каким-то причинам незакрытым от индексации при переходе сайта от разработчика к владельцу, может занять место основного.
Проверяйте с помощью инструмента CopyScape.
26. Вес документов не превышает 10 Мб
Индексация документов, вес которых превосходит 10Мб, может осуществляться с некоторыми трудностями, а в случае Яндекса вовсе невозможна.
Не многие знают о том, что PDF-файлы запросто могут быть распознаны поисковиками. В некоторых случаях имеет смысл оптимизировать именно их.
Для проверки: Pingdom.
27. Цели для сайта в инструментах аналитики
Кроме упрощения задачи понимания поведения клиентов на Вашем сайте и оценки его эффективности за счет получения всех необходимых метрических данных, настроенные цели — хороший способ уведомить поисковые системы о спросе на Ваш товар.
Для проверки запросите отчет «Конверсии» в инструментах аналитики Яндекс или Google.
Процесс внутренней оптимизации
Внутренняя оптимизация затрагивает работу над тегами и метатегами, текстами, изображениями, а также внутрисайтовыми ссылками. Такая работа – один из ключевых этапов в продвижении сайта в поиске.
28. Правильный Title
Продуманный заголовок не только отлично завлекает клиентов, но и способствует продвижению сайта.
При его написании стоит учитывать:
-
- Наличие в нем ключевых слов;
- Правильную передачу основного замысла сайта;
- Отсутствие повторений заголовков на страницах;
- Отсутствие повторений ключевых слов в заголовке;
- Оригинальность и привлекательность.
Для проверки подойдут Netpeak Spider, «СайтРепорт», Screaming Frog SEO Spider, Xenu, ComParser.
29. Работа над метатегом Description
Данный метатег может показываться в качестве описания сайта на странице поиска, если он удовлетворяет запросу. Поэтому он должен:
-
- Отличаться от заголовка;
- Состоять не более чем из 200 символов;
- Быть индивидуальным для каждой страницы;
- Включать ключевые слова;
- Привлекать внимание пользователя.
При проверке помогут следующие инструменты: Netpeak Spider, Screaming Frog SEO Spider, Xenu, «СайтРепорт».
30. Работа с Keywords
Мнение специалистов по поводу этого тега расходится. Одни говорят, что заполнять его нет смысла, другие же наоборот заполняют его ключами до отказа. Лучшим вариантом будет вписывать одну ключевую фразу для каждой страницы. При этом стоит учитывать уникальность для всех страниц, а также количество символов, которое не должно быть слишком большим.
При проверке используйте: Netpeak Spider, «СайтРепорт», Screaming Frog SEO Spider, Xenu.
31. Составление заголовка H1
Основными требованиями, предъявляемыми к H1 заголовку, являются наличие ключевой фразы и способность заинтересовать посетителя сайта. Также при его написании стоит обратить внимание на следующие моменты:
-
- Заголовок должен присутствовать на каждой страничке и при этом только один;
- Он находится в теге <h1></h1> при отсутствии классов и разметки;
- H1 должен открывать страничку, а не прятаться среди текста и других заголовков.
Для проверки есть следующие инструменты: Netpeak Spider, плагин SEO META in 1 CLICK, Screaming Frog SEO Spider, ComParser.
32. Наращивание ссылочного веса для главных страниц
Самые «тяжелые» с точки зрения ссылок должны быть важные страницы сайта. За этим стоит следить, чтобы не допускать на них нехватки статического веса. В случае если вес набирает не одна из самых важных страниц, нужно закрыть внутренние ссылки на нее через скрипт.
Проверяйте здесь: PageWeight, Netpeak Spider.
33. Отсутствие потери статического веса
Потеря, нарушающая правильное распределение ссылочного веса по сайту, возможна при наличии страниц, не содержащих ссылки на другие страницы сайта. Стоит избегать:
-
- Кнопок лидогенерации;
- Кнопок связи;
- Ссылок на побочные файлы и документы, которые не продвигаются на данный момент.
34. Наличие, так называемых «хлебных крошек»
Они формируют навигационную цепочку сайта, а также оказывают непосредственное влияние на распределение ссылочного веса. Важным моментом при реализации цепочки является наличие последнего неактивного элемента, что позволяет избежать циклической ссылки.
35. Внутренние ссылки
Тексты страницы должны содержать гиперссылки, это позволит увеличить ценность статьи, улучшить поведенческие факторы на сайте, а также наделить продвигаемые страницы ссылочным весом. То же самое касается и различных блоков, содержащих ссылки на страницы, например, со схожими товарами или информационными материалами. С гиперссылками связан один лайфхак, позволяющий добавить ключевое слово, прописанное в гиперссылке, к уже составленному документу. Делается это через задаваемые анкоры, текст которых плюсуется к тексту документа, на который ведет ссылка.
«СайтРепорт» поможет проанализировать анкоры.
36. Нет скрытого текста
Сайт не должен содержать текст, доступный роботам, но скрытый от глаз посетителя. В качестве примера можно привести текст, цвет которого совпадает с цветом фона или текст, выведенный через CSS за рамки экрана. Контроль данной проблемы можно осуществлять с помощью вебмастера Яндекс. Также для проверки необходимо в браузере нажать Ctrl+A, для подсветки всего текста.
37. Контроль быстрых ссылок
Для трех лидирующих позиций в поисковой выдаче Яндекс добавляет дополнительные ссылки. Располагаются они ниже заголовка, перед описанием. К сожалению, быстрые ссылки Яндекс формируют самостоятельно, но вносить свои коррективы пользователь все же может (убрать одну из них, изменить текст ссылки и т.д.). Быстрые ссылки также свидетельствуют о том, что сайт обладает грамотной навигацией и разборчивым для поисковика содержанием страниц сайта. В Google такие ссылки тоже представлены, но возможности их редактировать нет.
Проверку осуществляйте в разделе «Быстрые ссылки» Яндекса.
38. Работа по оптимизации изображений
Добавление подписей к изображениям, их размещение вблизи текста, который они дополняют, а также название картинки, передающее ее смысл, способствуют улучшению ранжирования.
Также не допускайте блокировки индексирования изображений в robots.txt, проверяйте индексацию фото в каждом поисковике.
39. Добавление атрибута ALT
Атрибут ALT, заполненный у изображений дает преимущества в ранжировании документа при поиске, а также является дополнительным способом добавления ключевой фразы на страницу, на которой размещено изображение.
Для проверки: Netpeak Spider, Screaming FROG SEO Spider, ComParser.
Семантическое ядро сайта
Правильный сбор семантического ядра является важным этапом в оптимизации и обеспечении посещаемости сайта. Поэтому ему необходимо уделить должное количество времени и внимания.
40. Учет языковых факторов
Зачастую пользователь употребляет для поиска не только официальное название сайта или товара, но и разговорные слова и словосочетания, жаргонизмы, иногда допуская ошибки.
Популярный пример на эту тему: люди, смотря на ноутбуки ASUS вверх ногами, запоминали название как SNSV и писали так в поиске.
При составлении ядра необходимо учитывать все варианты слов, используемых при поиске.
41. Учет актуальности ключевых слов
После окончания сезонного спроса на товар, если сайт существует достаточно долго и при прочих факторах влияющих на актуальность ключей стоит проводить анализ семантического ядра. Периодичность проверки не повредит даже при сохранении неизменности этих факторов.
Проверяйте с помощью KeyCollector, Rush Analytics.
42. Удаление нецелевых запросов
Ключевые слова способные привести на сайт нецелевую аудиторию необходимо исключить из семантического ядра. Примером таких запросов являются фразы, содержащие слова: скачать, бесплатно, реферат; также фразы одинаковые для нескольких различных сфер и тд.
Для проверки используйте: самостоятельную проверку, JustMagic.
Контент
Кроме создания уникального, привлекательного контента, немаловажным фактором является также его оформление.
43. Информационный контент (блоги, статьи)
Мало того, что статьи приносят дополнительный трафик на сайт, они еще повышают доверие к ресурсу, так как статьи помогаю найти ответы на интересующие вопросы и показывают высокий уровень подготовки ресурса.
44. Вопросы и ответы
Раздел, в котором пользователи могут получить ответы на все интересующие вопросы (как, зачем, почему, сколько) является быстрым и дешевым способом повысить посещаемость ресурса. Для каждого заготовленного вопроса создайте индивидуальную страницу, для задания title и description.
Для сбора воспользуйтесь инструментом Serpstat поисковые вопросы.
45. Тегирование
То есть группировка статей, товаров, объявлений на страницах сайта по схожим признакам. Группировка происходит на разделы и категории, это позволяет пользователю лучше ориентироваться на сайте и смотреть только нужные ему товары. За счет этого также поднимается оптимизация в распределении по страницам ключевых слов из семантического ядра и растет количество точек входа.
Обращать внимание стоит:
-
- в целом на существование таких разделов;
- на внутренние ссылки на тэгированные разделы;
- на признаки SEO таких разделов: написание эксклюзивных title и H1, метатегов, текстов, читаемых URL.
46. Периодические публикации
Регулярно загружая свежие публикации на сайт, Вы поддерживаете интерес пользователя и повышаете его доверие к ресурсу, сообщаете поисковикам о том, что сайт функционирует, и его не бросили.
Поисковики оценивают интерес к сайту через закладочный трафик (пользователи добавляют интересный сайт в закладки и переходят на него, без поиска).
47. Работа над контентом
Информация на сайте должна быть правильно оформлена для лучшего восприятия пользователем. Поэтому нужно следить за:
-
- Акцентированием внимания на важных моментах (выделение другим цветом, рамкой, фоном);
- Отступами между абзацами;
- Добавлением списков и маркеров (при необходимости);
- Выделением заголовков шрифтом, цветом, размером;
- Разделением текста по смыслу заголовками и подзаголовками;
- Добавлением публикаций из социальных сетей.
48. Применение изображений
Потеря, нарушающая правильное распределение ссылочного веса по сайту, возможна при наличии страниц, не содержащих ссылки на другие страницы сайта. Стоит избегать:
-
- Добавление дополнительной ключевой фразы через заполнение атрибута ALT у картинки;
- Улучшение поведенческих факторов за счет повышения визуальных качеств контента;
- Возможность появления изображения в сниппете при выдаче результатов поиска в мобильной версии Яндекса.
49. Оригинальность текстов
На просторах интернета можно часто столкнуться с проблемой воровства контента, поэтому тщательно следите за этим и принимайте соответствующие меры. Благодаря инструменту «Оригинальные тексты» можно поспособствовать определению поисковиками первоисточника текста. Для проверки также пользуйтесь Text.ru, ETXT, Advego.
Коммерческие составляющие
Коммерческие факторы определяют надежность ресурса, а также, при правильной работе над ними, способствуют увеличению степени доверия клиентов и делают лучше ранжирование. Тут в большей степени, чем в других аспектах стоит следить за конкурентами, постоянно модернизируя свой сайт.
50. Нет рекламы других сайтов
Следите за отсутствием рекламы и ссылок на конкурентов на Вашем сайте, она может появиться при настройке сайта недобросовестными компаниями.
51. Лицензии и сертификаты
Если клиент заходит на сайт и видит там сертификаты, лицензии, реквизиты, подтверждающие официальность действий, производимых данной компанией, у него есть все основания довериться ей. Кроме того, юридические реквизиты должны быть указаны на сайте по закону.
52. SSL-сертификат
Мало того, что наличие сертификата влияет на ранжирование, оно еще дает пользователям уверенность в безопасности совершения покупок на данной площадке.
53. Нет АГС-сайтов и очевидных SEO-ссылок
Поисковики отрицательно относятся к сайту, на который ссылаются попавшие под фильтр ресурсы. Если это произошло с Вами, решить этот вопрос, в зависимости от поисковой системы, можно разными способами. Например, в Google можно отклонить ссылку с помощью специального инструмента, что же касается Яндекса – тут придется обсуждать вопрос с владельцами сайта напрямую. SEO-ссылки с доноров, тематикой сильно отличающейся от Вашей, нужно убирать. Для проверки используйте: CheckTrust, FastTrust, раздел «Ссылки на ваш сайт» в Google Searсh Console, раздел «Внешние ссылки» в «Яндекс.Вебмастере».
54. Внешние ссылки с индексированных страниц
На Вас должны ссылаться только с проиндексированных страниц, постоянно следите за этим.
Для проверки используйте Seolib.
55. Анкор-лист не содержит спам
Для того чтобы ссылочный профиль выглядел натуральнее, нужно наполнять анкор-листы разными ключевыми словами и словосочетаниями, не допуская спама из разных форм одной фразы. Также должны присутствовать ссылки без анкоров.
Проверяйте на «СайтРепорт», PixelTools.
56. Конкуренты не опережают Вас по ссылочной массе
Постоянно следите за конкурентами в Вашей тематике. При наличии у них общих доноров, постарайтесь заполучить от их ссылки и на Ваш ресурс.
Проверяйте с помощью Ahrefs, LinkPad.
57. На Вас не ссылаются подозрительных сайты
К числу таких сайтов относятся казино, порно-сайты и другие. Также сюда можно добавить сайты с запретными фразами в анкорах.
Для проверки воспользуйтесь «СайтРепорт», PixelTools.
58. Нет ссылок на Ваши несуществующие страниц
Следите, чтобы среди Ваших страниц, на которые ссылаются доноры, не было 404-х. Если избежать этого не удалось, настройте редирект на существующие страницы.
59. Получайте ссылки бесплатно
Ссылки, которые легко и быстро получать также и имеют значение.
Примером могут быть ссылки отлученные от:
-
- Каталогов без спама;
- Разделов с ответами на вопросы;
- Википедии;
- Ресурсов с вакансиями;
- Ресурсов с возможностью комментировать видео, фотографии и т.д.;
- Тематических сайтов с возможностью для компаний заводить свои собственные странички (т.е. компания будет ссылаться сама на себя, но с другого сайта).
60. Использование крауд-маркетинга
Дайте стимул клиентам делиться Вашим ресурсом в социальных сетях и форумах по Вашей теме. Для приобретения дополнительных ссылок можно:
-
- Обраться за услугами в специальные компании;
- Найти специалиста для постоянной работы на Вас;
- Обратиться к заинтересованным Вашей темой клиентам с просьбой оставить на Вас ссылку.
61. Популярность бренда
Если о Вашей компании говорят, поисковики это ценят. Для этого упоминания не обязательно должны сопровождаться ссылками, но если на каком-либо ресурсе Вас обсуждают – просите оставить ссылку. Не лишней будет помощь клиентов в упоминании Вас на различных отзывиках. Отслеживайте с помощью TalkwalkerAlerts, IQbuzz.
62. Нет мусорных и скрытых ссылок на Вашем сайте
Следите за тем, чтобы ссылки на Вашем сайте вели только на полезные странички. При наличии недоброкачественых ссылок (например, Вас взломали и заменили ссылки), мы сможете быстро найти и убрать их.
Для помощи в проверке воспользуйтесь Netpeak Spider, Screaming Frog SEO Spider.
Продвижение в регионах
При продвижении сайта в нескольких регионах Яндекс рекомендует создать отдельные сайты для каждого из них или же обойтись хотя бы поддоменом, для закрепления региона в вебмастерской. Это конечно не дешево, зато эффективно. Часто компании с ограниченным бюджетом выбирают работу с геозависимыми запросами внутри основного сайта.
63. Закрепление в Яндекс.Вебмастер
В то время как региональным сайтам стоит сильно конкретизировать привязку к определенному городу (области), многорегиональные не нуждаются в указании конкретного города, единственное, при необходимости для них можно задать один приоритетный.
64. Справочники «Яндекс» и «Google Мой Бизнес»
Офисы и все филиалы должны быть представлены в данных справочниках, это позволит поднять региональные позиции и набрать дополнительного трафика из карт.
Вот хороший пример:
65. IP не влияет на доступ робота к страницам
Робот должен индексировать все страницы сайта независимо от того, с IP-адреса какого региона он зашел на сайт. Так, например, заходя с красноярского IP, робот также индексирует контент для Питера. Глубже разобрать этот вопрос поможет справка о распознавании роботов «Яндекс» и «Google».
66. Geositemap
Google может указывать точную геолокацию ваших филиалов. Для этого ему необходим файл определенного формата, который помещается в корневую папку сайта с указанием ссылки на него через sitemap.xml. Создайте с помощью Geo Sitemap & KML generator.
67. Страница под регион
Для одного региона создайте отдельную страницу, на которой укажите информацию о работе компании только в этом городе (области). Добавляйте название города в URL и мета-теги.
68. Указание геолокации в отзывах
Страницы с отзывами могут положительно влиять на ранжирование, сайт может выбраться в топ по запросам, в которых присутствует название населенного пункта. Страницы с отзывами могут положительно влиять на ранжирование, сайт может выбраться в топ по запросам, в которых присутствует название населенного пункта.
69. Наличие ссылок с региональных площадок
Вне зависимости от того, получили Вы их или нет, также обязательно добавьте адреса филиалов в такие справочники как 2gis, zoon, spravker и т.д.
Поведенческие факторы
Поисковики отслеживают поведение пользователей на сайте и берут полученные данные в расчет при ранжировании. Эти данные включают:
-
- Общее время на сайте;
- Количество открытых пользователем страниц;
- Репосты в социальных сетях;
- Отказы;
- Отношение числа кликов по рекламе к числу ее показов (CTR)
- Количество возвратов на сайт из поиска и на поиск с сайта;
70. Соответствие открываемой страницы поисковому запросу
Проверьте соответствие запросов и оптимизированных под них страниц, иногда могут возникать расхождения. Для проверки используйте сервисы сбора позиций AllPositions, «Топвизор», SE Ranking, Rush Analytics.
71. Контроль страниц с частыми отказами
Если на сайте присутствуют такие страницы, при том, что переходы происходят по целевым запросам — значит, надо что-то исправлять. Проверьте страницу на предмет наличия всей нужной для клиента информации и скорости загрузки.
Проверяйте с помощью инструментов «Яндекс.Метрика», Google Analytics.
Берите в расчет то, что эти инструменты определяют отказы по-разному: в первом случае отказом является присутствие на сайте менее 15 секунд, а во втором – посещение лишь одной страницы. Исходя из этого, стратегии по снижению количества отказов нужно также стоить по-разному.
72. Работа над сниппетом
Чтобы привлечь внимание пользователя и побудить его открыть именно Ваш сайт из всей выдачи, нужно добавить в сниппет:
-
- Цену и условия доставки;
- Информацию о публикации (дату);
- Рейтинг страницы;
- Эмодзи в описание и заголовки;
- Выделяющийся фавикон.
- Понятную навигацию.
Для Яндекса доступно расширение сниппета посредством загрузки YML-файла или специальной разметки.
Фильтры
Если при правильной, периодической работе над сайтом Вы наблюдаете падение трафика, есть шанс, что сайт попал под фильтры. Поисковики накладывают фильтры, в случае если: имеется значительное количество исходящих SEO-ссылок; производится покупка ссылок, накрутка поведенческих факторов; на сайте присутствует контент для взрослых, огромное количество ключевиков в текстах или ведется агрессивная рекламная кампания.
73. Отсутствие нескольких сайтов одной компании
У Яндекса есть фильтры, накладываемые на аффилированные сайты, которые ограничивают их показ по одному запросу. Иногда может случиться и такое, что фильтры будут наложены на сайты двух разных компаний. Для проверки воспользуйтесь arsenkin.ru, PixelTools.
74. Отсутствие спама в текстах
Если тексты на сайте изобилуют ключевыми фразами, отношение поисковиков к нему будет не самым лучшим. Еще одним аспектом, за которым нужно тщательно следить, является отсутствие переоптимизации по запросам.
Проверить можно в PixelTools, arsenkin.ru.
77. Не размешайте много рекламы
Общее количество рекламных объявлений не должно превышать одной третьей главного экрана и двух третьих остального сайта. Иначе при оценке сайта специалистом поисковой системы (асессором), сайт будет обречен на непопадание в топ поисковый выдачи. В случае Яндекса, такой сайт точно попадет под фильтр.
76. Контент 18+
Правила поисковиков относительно контента для взрослых достаточно строгие. Даже на образовательных ресурсах не стоит размещать изображения интимных частей тела, иначе сайт будет ранжироваться только в категории 18+.
75. Нет скрытой переадресации
Из-за взлома или скрипта, ответственного за показ рекламы и выданного непроверенным рекламодателем может случиться следующее: во время перехода по адресу со смартфона происходит переадресация на другой сайт. При этом у компьютерной версии такой проблемы нет.
Для решения этой проблемы прочтите инструкцию по борьбе с переадресацией от Google.