#python #web-scraping #beautifulsoup
#python #очистка веб-страниц #beautifulsoup
Вопрос:
Я очень новичок в Python и кодировании в целом. Я следил за видеоуроком по webscrap на YouTube, и у меня возникли проблемы при попытке запустить мой код.
Что я пытаюсь сделать:
- Я пытаюсь написать запрос для извлечения всех предложений на главной странице с веб-сайта (CigarMonster.com ) и извлеките 5 атрибутов (описание сигары, описание размера / кол-ва, первоначальная цена, цена продажи и процентная скидка) из каждого объявления на странице. Я хотел бы записать их в CSV-файл.
Что я пробовал:
- Я тестировал код в Anaconda, и у меня есть каждый из отдельных атрибутов, отображающий правильный текст / html.
- Я не могу запустить весь скрипт. Я получаю ошибки и не уверен, что происходит.
Ниже приведен сценарий:
from urllib.request import Request, urlopen
from bs4 import BeautifulSoup as soup
#opens up connection and grabs the webpage
url = 'https://www.cigarmonster.com/'
req = Request(url, headers={'User-Agent': 'Mozilla/5.0'})
web_byte = urlopen(req).read()
webpage = web_byte.decode('utf-8')
#parses html
page_soup = soup(webpage, "html.parser")
# grabs each of the products
containers = page_soup.findAll("div",{"class":"quickview-pop launchModal"})
filename = "cigar_list.csv"
f = open(filename, "w")
headers = "cigar_brand,product_size,famous_price, monster_price, percent_off"
f.write(headers)
for container in containers:
try:
cigar_brand = container.find("div",{"class":"item-grid-product-title"}).text
except Exception as e:
cigar_brand = "NA"
else:
pass
finally:
pass
size_container = container.findAll("span", {"class":"product-subtitle"})
product_size = size_container[0].text
famous_price_container = container.findAll("div",{"class":"col-xs-12 item-grid-product-fss-price"})
famous_price = famous_price_container[0].text
monster_price_container = container.findAll("div",{"class":"col-xs-12 item-grid-product-monster-price"})
monster_price = monster_price_container[0].text
percent_off_container = container.findAll("div",{"class":"col-xs-12 item-grid-product-fss-pct"})
percent_off = percent_off_container[0].text
#print("cigar_brand: " cigar_brand)
#print("product_size: " product_size)
#print("famous_price: " famous_price)
#print("monster_price: " monster_price)
#print("percent_off: " percent_off)
f.write(cigar_brand "," product_size "," famous_price "," monster_price "," percent_off "n")
f.close()
Я получаю эти ошибки при запуске скрипта:
Traceback (most recent call last):
File "cigar_monster_scrape.py", line 8, in <module>
uClient = urlopen(uReq).read()
File "C:Usersnmbucanaconda3liburllibrequest.py", line 222, in urlopen
return opener.open(url, data, timeout)
File "C:Usersnmbucanaconda3liburllibrequest.py", line 525, in open
response = self._open(req, data)
File "C:Usersnmbucanaconda3liburllibrequest.py", line 547, in _open
return self._call_chain(self.handle_open, 'unknown',
File "C:Usersnmbucanaconda3liburllibrequest.py", line 502, in _call_chain
result = func(*args)
File "C:Usersnmbucanaconda3liburllibrequest.py", line 1421, in unknown_open
raise URLError('unknown url type: %s' % type)
urllib.error.URLError: <urlopen error unknown url type: https>
Поначалу я также получал изрядное количество ошибок с отступами.
Комментарии:
1. вы должны включить ошибки, которые вы получаете, в нижней части своего сообщения
2. Что, если бы вы попытались заменить
req
переменную в строке 8 наurl
3. Интересно, связано ли это с моей установкой. У кого-нибудь есть пример файла soup code .py, который я могу попробовать? Я попытался запустить код, который, по словам людей, работал, и все еще получал похожие проблемы.
Ответ №1:
Измените 2 нижеприведенные строки кода, и тогда все готово. В приведенном ниже коде я использовал запросы вместо urlib, в остальном все то же самое.
import requests
url = 'https://www.cigarmonster.com/'
req = requests.get(url, headers={'User-Agent': 'Mozilla/5.0'})
#parses html
page_soup = soup(req.text, "html.parser")
Комментарии:
1. Спасибо, Вин! Это сработало отлично. Теперь он может работать! Мне просто нужно внести некоторые изменения, чтобы заставить его перейти на вторую страницу и переместить первую строку вниз в файле…