#indexing #opencart #user-agent #robots.txt
#индексирование #opencart #user-agent #robots.txt
Вопрос:
Я работаю над сайтом buydirectonline.com.au , который раньше обходился без проблем. Все основные поисковые системы проиндексировали его, и screaming frog мог сканировать сайт без проблем.
Однако внезапно screaming frog возвращает ошибку 403, и сайт деиндексируется во всех основных поисковых системах.
Я проверил очевидное: — robots.txt — сообщения / проблемы консоли поиска — файл htaccess
Кажется, ничего не изменилось, все выглядит так, как было, когда сайт сканировался должным образом.
У кого-нибудь есть идеи о том, что я должен попробовать / исследовать дальше?
Заранее спасибо!
Комментарии:
1. Это переполнение «стека», а не переполнение «seo». Я предлагаю вам задать этот вопрос на SEO-форуме.
2. Отключись, Пол, это совершенно правильный вопрос для stack overflow. Найдите свои интернет-точки где-нибудь в другом месте.
3. Ну, вы не предоставили много информации, но 403 означает запрещено, поэтому Google и Screaming Frog должны быть заблокированы, возможно, вашим файлом .htaccess, возможно, вашим веб-хостингом.
4. вы проверили
Google Webmasters
, отображается ли там какая-либо ошибка, если поисковый робот получает какую-либо ошибку во время обхода, она будет показана там.