Динамическая передача значения в Spider-Scrapy

#scrapy

#scrapy

Вопрос:

Я пытаюсь динамически передать значение моему spider для очистки страницы. Когда я выполняю, он показывает ошибку и не продолжается. Дайте мне знать, в чем проблема с моим кодом.

 class MyItem(Item):
url=Field()
title=Field()

class someSpider(CrawlSpider):
   name = 'crawlim'
   sitename=''
   items=[]

   def __init__(self, *args, **kwargs):
      urls = kwargs.pop('urls', []) 
      domains=kwargs.pop('domains',[])
      if domains:
        self.allowed_domains=domains.split(',')
      if urls:
        self.start_urls = urls.split(',')
      self.logger.info(self.start_urls)
      someSpider.rules=(Rule(LxmlLinkExtractor(allow=(),unique=True), callback='parse_obj', follow=True),)
      super(someSpider, self).__init__(*args, **kwargs)
   
  

Сообщение об ошибке:

 INFO:scrapy.core.engine:Spider opened
2019-03-07 16:59:14 [scrapy.core.engine] INFO: Spider opened
INFO:scrapy.extensions.logstats:Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min)
2019-03-07 16:59:14 [scrapy.extensions.logstats] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min)
INFO:crawlim:Spider opened: crawlim
2019-03-07 16:59:14 [crawlim] INFO: Spider opened: crawlim    
DEBUG:scrapy.extensions.telnet:Telnet console listening on 127.0.0.1:6063
2019-03-07 16:59:14 [scrapy.extensions.telnet] DEBUG: Telnet console listening on 127.0.0.1:6063
error
  

Комментарии:

1. Не похоже ни на какую ошибку. Программа поиска, ожидающая обхода URL-адреса. Какой у вас URL?

2. Я пробовал несколько URL-адресов ( cnn.com ). Если я удалю аргументы и жестко закодирую значение, оно будет работать нормально.