Проблема с Webscrape BeautifulSoup

#python #web-scraping #beautifulsoup

#python #очистка веб-страниц #beautifulsoup

Вопрос:

Я очень новичок в Python и кодировании в целом. Я следил за видеоуроком по webscrap на YouTube, и у меня возникли проблемы при попытке запустить мой код.

Что я пытаюсь сделать:

  • Я пытаюсь написать запрос для извлечения всех предложений на главной странице с веб-сайта (CigarMonster.com ) и извлеките 5 атрибутов (описание сигары, описание размера / кол-ва, первоначальная цена, цена продажи и процентная скидка) из каждого объявления на странице. Я хотел бы записать их в CSV-файл.

Что я пробовал:

  • Я тестировал код в Anaconda, и у меня есть каждый из отдельных атрибутов, отображающий правильный текст / html.
  • Я не могу запустить весь скрипт. Я получаю ошибки и не уверен, что происходит.

Ниже приведен сценарий:

 from urllib.request import Request, urlopen
from bs4 import BeautifulSoup as soup

#opens up connection and grabs the webpage
url = 'https://www.cigarmonster.com/'
req = Request(url, headers={'User-Agent': 'Mozilla/5.0'})

web_byte = urlopen(req).read()

webpage = web_byte.decode('utf-8')

#parses html
page_soup = soup(webpage, "html.parser")

# grabs each of the products
containers = page_soup.findAll("div",{"class":"quickview-pop launchModal"})

filename = "cigar_list.csv"

f = open(filename, "w")

headers = "cigar_brand,product_size,famous_price, monster_price, percent_off"

f.write(headers)

for container in containers:
    try:
        cigar_brand = container.find("div",{"class":"item-grid-product-title"}).text
    except Exception as e:
        cigar_brand = "NA"
    else:
        pass
    finally:
        pass

    size_container = container.findAll("span", {"class":"product-subtitle"})

    product_size = size_container[0].text

    famous_price_container = container.findAll("div",{"class":"col-xs-12 item-grid-product-fss-price"})

    famous_price = famous_price_container[0].text

    monster_price_container = container.findAll("div",{"class":"col-xs-12 item-grid-product-monster-price"})

    monster_price = monster_price_container[0].text

    percent_off_container = container.findAll("div",{"class":"col-xs-12 item-grid-product-fss-pct"})

    percent_off = percent_off_container[0].text

    #print("cigar_brand: "    cigar_brand)
    #print("product_size: "    product_size)
    #print("famous_price: "   famous_price)  
    #print("monster_price: "    monster_price)
    #print("percent_off: "    percent_off)
    f.write(cigar_brand   ","   product_size   ","   famous_price   ","   monster_price   ","   percent_off   "n")
 
f.close()
  

Я получаю эти ошибки при запуске скрипта:

 Traceback (most recent call last):
  File "cigar_monster_scrape.py", line 8, in <module>
    uClient = urlopen(uReq).read()
  File "C:Usersnmbucanaconda3liburllibrequest.py", line 222, in urlopen
    return opener.open(url, data, timeout)
  File "C:Usersnmbucanaconda3liburllibrequest.py", line 525, in open
    response = self._open(req, data)
  File "C:Usersnmbucanaconda3liburllibrequest.py", line 547, in _open
    return self._call_chain(self.handle_open, 'unknown',
  File "C:Usersnmbucanaconda3liburllibrequest.py", line 502, in _call_chain
    result = func(*args)
  File "C:Usersnmbucanaconda3liburllibrequest.py", line 1421, in unknown_open
    raise URLError('unknown url type: %s' % type)
urllib.error.URLError: <urlopen error unknown url type: https>
  

Поначалу я также получал изрядное количество ошибок с отступами.

Комментарии:

1. вы должны включить ошибки, которые вы получаете, в нижней части своего сообщения

2. Что, если бы вы попытались заменить req переменную в строке 8 на url

3. Интересно, связано ли это с моей установкой. У кого-нибудь есть пример файла soup code .py, который я могу попробовать? Я попытался запустить код, который, по словам людей, работал, и все еще получал похожие проблемы.

Ответ №1:

Измените 2 нижеприведенные строки кода, и тогда все готово. В приведенном ниже коде я использовал запросы вместо urlib, в остальном все то же самое.

 import requests   

url = 'https://www.cigarmonster.com/'
req = requests.get(url, headers={'User-Agent': 'Mozilla/5.0'})    

#parses html
page_soup = soup(req.text, "html.parser")
  

Комментарии:

1. Спасибо, Вин! Это сработало отлично. Теперь он может работать! Мне просто нужно внести некоторые изменения, чтобы заставить его перейти на вторую страницу и переместить первую строку вниз в файле…