Есть ли у scrapy параметр end_url?

#python #parameters #scrapy

#python #параметры #scrapy

Вопрос:

здесь новый программист. Пытаюсь выяснить, имеет ли Scrapy параметр end_url точно так же, как у него есть параметр start_url . Я хочу сканировать определенное количество элементов с данного веб-сайта.

Возможно ли это? Или я должен просто использовать правила обхода

 start_url=[""]
end_url=[""]
  

ПРИМЕЧАНИЕ: я новичок в использовании Scrapy, и я прочитал их документацию. Но, похоже, я не могу понять это.
Любая помощь будет высоко оценена. Спасибо

Комментарии:

1. Как будет вести себя этот параметр «end_url»? Довольно ясно, как start_url это работает; остается только гадать, как должен вести себя параметр «end_url».

2. «Я хочу сканировать определенное количество элементов с данного веб-сайта». : проверьте CLOSESPIDER_ITEMCOUNT

3. @deceze Я надеялся указать конечный URL-адрес в этом параметре. Предположим, я начал с www.example.com/page/1 /, Есть ли способ завершить сканирование в www.example.com/page/2/

4. Поскольку одна веб-страница содержит ссылки на множество других веб-страниц, все из которых могут или не могут в конечном итоге привести к вашему «end_url» или нет, или могут вести туда по кругу, это само по себе довольно бессмысленно. Вам решать прекратить «поиск» дополнительных ссылок для обхода.

5. @paultrmbrth Я не сталкивался с этим раньше. Это кажется жизнеспособным решением, однако я действительно не знаю, как включить это в мой существующий код. И публикация этого кода для вас для просмотра, похоже, будет пустой тратой вашего времени.