Seo новости одной строкой

Олег Саламаха, Netpeak: "Не стоит все карточки товара набивать супер-информацией"

Две недели назад SEO-­аналитик компании Netpeak и один из разработчиков сервиса Prodvigator, Олег Саламаха выступил на одном из бесплатных вебинаров по интернет­маркетингу, которые проводит академия интернет­-маркетинга WebPromoxExperts.

Первые полчаса Олег рассказывал про автоматизацию и семантику (наложив это на возможности сервисов Нетпика), а вторые полчаса — отвечал на вопросы. Ребята из академии расшифровали самые интересные ответы и попросили опубликовать. Надеюсь, вам они также будут интересны.

Олег Саламаха - seo-аналитик в компании NetpeakОлег, можно ли закрывать страницы с дублированным контентом тегом canonical?

Да, canonical поможет. Я бы действительно поставил canonical. Но у меня есть множество примеров, когда robots.txt игнорируется поисковой системой. В справке Google написано, что robots.txt — это только рекомендации «что именно не включать в ранжирование». Причем не в индекс, а именно в ранжирование.

Это означает, что на закрытые страницы робот может спокойно переходить, он может сохранять информацию, которая есть; но, возможно, не будет ее ранжировать.

Еще вариант — кроме canonical поставить noindex и nofollow именно в мeтa­тегах. Они имеют более высокий приоритет, чем robots.txt. И если у вас попало что­-то в индекс (что туда не должно было попадать) нужно открыть это в robots.txt и закрыть в мeтa­тегах. Тогда будет проще выкинуть из индекса.

Читать дальше ответы и задать свой вопрос Олегу Саламахе…
  • нет
  • 0
  • 0

0 комментариев

Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.