#python #scrapy #web-crawler
#python #scrapy #веб-сканер
Вопрос:
Вот мой scrapy-код.Я не знаю свою ошибку, но только на первой странице царапает.Как я могу очистить и перемещаться по страницам? Есть ли какой-либо другой способ очистки следующих страниц?
import scrapy
class HurriyetEmlakPage(scrapy.Spider):
name = 'hurriyetspider'
allowed_domain = 'hurriyetemlak.com'
start_urls = ['https://www.hurriyetemlak.com/satilik']
def parse(self, response):
fiyat = response.xpath('//div[@class="list-view-price"]//text()').extract()
durum = response.xpath('//div[@class="middle sibling"]//div[@class="left"]//text()').extract()
oda_sayisi = response.xpath('//span[@class="celly houseRoomCount"]//text()').extract()
metrekare = response.xpath('//span[@class="celly squareMeter list-view-size"]//text()').extract()
bina_yasi = response.xpath('//span[@class="celly buildingAge"]//text()').extract()
bulundugu_kat = response.xpath('//span[@class="celly floortype"]//text()').extract()
konum = response.xpath('//div[@class="list-view-location"]//text()').extract()
scraped_info = {
'fiyat':fiyat,
'durum': durum,
'oda_sayisi' : oda_sayisi,
'metrekare' : metrekare,
'bina_yasi' : bina_yasi,
'bulundugu_kat': bulundugu_kat,
'konum' : konum
}
yield scraped_info
next_page_url = response.xpath('//li[@class="next-li pagi-nav"]//a').extract_first()
if next_page_url:
next_page_url = response.urljoin(next_page_url)
yield scrapy.Request(url = next_page_url,callback = self.parse)
Ответ №1:
На самом деле, вы могли бы просто сгенерировать свой список URL следующим образом :
url_list = [f"https://www.hurriyetemlak.com/satilik?page={page}" for page in range(1,7326)]
Вывод
['https://www.hurriyetemlak.com/satilik?page=1',
'https://www.hurriyetemlak.com/satilik?page=2',
'https://www.hurriyetemlak.com/satilik?page=3',
'https://www.hurriyetemlak.com/satilik?page=4',
'https://www.hurriyetemlak.com/satilik?page=5',
...]
Комментарии:
1. это сработало нормально, но оно сохраняет результаты 1 страницы в 1 строке в файле .csv любое решение для этого?
2. не уверен, что понимаю проблему. Вы имеете в виду, что только на странице 1 вы сталкиваетесь с этим? Вы можете попытаться изменить URL страницы 1 на hurriyetemlak.com/satilik
3. 1 строка в выводе csv сохраняет информацию о 24 объявлениях (1 страница). У вас есть какие-либо идеи, как я могу это решить? Я