В данной статье хотелось бы сделать обзор нескольких кластеризаторов, а главное попытаться сравнить качество кластеризации у того или иного инструмента.
Ситуация, когда на конкретный запрос Яндекс выводит «левую» страницу вашего сайта, непонятно откуда выкопанную, хотя вы абсолютно уверены, что есть 100% релевантная посадочная, не зафильтрованная и не заспамленная, знакома многим. Я тоже столкнулась с такой проблемой.
При первом запуске макросов на ПК необходимо выполнить до настройки MS Excel
Владимир Каськов нашел несложный и действенный метод увеличения охвата СЯ по НЧ запросам. За охватом последовал и трафик.
Автоматизация — везде! Главное делать все с умом! Статья от куратора закрытого сообщества Романа Михальчука.
Тэги — везде! Просто нужно уметь смотреть. И один из участников нашего закрытого сообщества увидел. Игорь Кирсанов делится своими наблюдениями.
Сегодня рассмотрим принцип разработки прототипа, что должно в него входить и как он должен выглядеть.
После того, как готовый файл robots.txt был загружен на сервер, обязательно необходима проверка его доступности, корректности и наличия ошибок в нем.
Robots.txt — это стандартный текстовый файл в кодировке UTF-8 с расширением .txt, который содержит директивы и инструкции индексирования сайта, его страниц или разделов. Он необходим для роботов поисковых систем. В статье расскажем, зачем он нужен, какие инструменты используются для его проверки и настройки под Яндекс и Google, а также представим рекомендации по созданию.