Будет ли использование !# Ajax обхода на сайте, недоступном без JS, генерировать дублированный контент в поисковых системах?

#ajax #seo #web-crawler #duplicate-content

#ajax #seo #веб-сканер #дублированный контент

Вопрос:

У меня есть веб-сайт, который работает как с включенным, так и с выключенным JS. Все ссылки на странице представлены в обычном формате формы <a href="/pagename"> , но если посетитель перейдет на нее с доступным JS, они будут изменены в <a href="#/pagename"> и обработаны с помощью события hahschange.

В результате получается 2 возможных URL, указывающих на один и тот же контент ( www.site.com/pagename и www.site.com/#/pagename ).

Примечание: Если вы перейдете www.site.com/pagename на JS, вы будете автоматически перенаправлены на www.site.com/#/pagename

Теперь мне интересно, должен ли я реализовать формат hashbang ( www.site.com/#!/pagename ) или нет, поскольку я не знаю, приведет ли это к дублированию контента при обходе ботами? FAQ от Google не сильно помог по этому конкретному вопросу.

Ответ №1:

Это, вероятно, вызовет проблемы с дублированным контентом, но трудно сказать наверняка, поскольку ajax с возможностью обхода — это новая вещь. Но вы можете легко решить эту проблему, используя канонические URL.

Комментарии:

1. Ах, спасибо за эту ссылку, я раньше не был уверен, что такое канонические URL-адреса. Даже без учета обхода это очень помогает, поскольку я не могу предоставить надежный запасной вариант для доступа к URL-адресу, используемому AJAX, если JS отключен.