#python #selenium #loops #web-scraping
Вопрос:
Я хочу получить точно такую же информацию, вложенную на нескольких страницах. Затем я поместил URL-адреса в список и написал цикл for для повторения этих страниц. Скребок отлично работает с первым URL-адресом, но, к сожалению, застревает на втором, и я получаю MaxRetryError
.
Моя идея с Selenium заключалась в том, чтобы открыть страницу, получить необходимую мне информацию, поместить ее в фрейм данных, закрыть страницу. Затем откройте другую страницу, получите аналогичную информацию, добавьте фрейм данных, закройте страницу и т. Д. И сохраните фрейм данных в виде файла .csv.
Вот код :
options = webdriver.ChromeOptions()
options.add_argument('--no-sandbox')
options.add_argument('--disable-dev-shm-usage')
PATH = "C:Program Files (x86)chromedriver.exe"
driver = webdriver.Chrome(PATH, options=options)
driver.maximize_window()
driver.implicitly_wait(30)
time.sleep(10)
wait = WebDriverWait(driver,30)
# Create the csv at the good place
csv_file = open('path_to_folder.csv', 'w', newline='')
csv_writer = csv.writer(csv_file)
csv_writer.writerow(['titre', 'contrat', 'localisation', 'description'])
# A list of two URL's
listurl = ['https://candidat.pole-emploi.fr/offres/emploi/horticulteur/s1m1','https://candidat.pole-emploi.fr/offres/emploi/ouvrier-agricole/s1m2']
# Loop through the list
for i in listurl:
driver.get(i)
# Click cookies popup
wait.until(EC.element_to_be_clickable((By.LINK_TEXT,"Continuer sans accepter"))).click()
time.sleep(3)
# Get the elements
try:
zone = WebDriverWait(driver, 10).until(
EC.presence_of_element_located((By.CLASS_NAME, "zone-resultats"))
)
offres = zone.find_elements_by_css_selector("div.media-body")
offres2 = zone.find_elements_by_css_selector("div.media-right.media-middle.hidden-xs")
for offre in offres:
titre = (offre.find_element_by_css_selector("h2.t4.media-heading")).text
print(titre)
localisation = (offre.find_element_by_css_selector("span")).text
print(localisation)
description =(offre.find_element_by_class_name("description")).text
print(description)
for offre2 in offres2:
contrat = (offre2.find_element_by_class_name("contrat")).text
print(contrat)
csv_writer.writerow([titre, contrat, localisation, description])
except Exception as ex:
print(ex)
finally:
csv_file.close()
driver.quit()
Вот сообщение об ошибке :
MaxRetryError: HTTPConnectionPool(host='127.0.0.1', port=52938): Max retries exceeded with url: /session/cab64f2c3688431768dfcdba1c4ca98f/url (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x0000021FBC3B6730>: Failed to establish a new connection: [WinError 10061] No connection could be made because the target machine actively refused it'))
Ответ №1:
Этот код должен работать для вас:
from selenium import webdriver
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
import pandas as pd
options = webdriver.ChromeOptions()
# options.add_argument("--incognito")
options.add_argument('--no-sandbox')
options.add_argument('--disable-dev-shm-usage')
# # Create the csv at the good place
# csv_file = open('path_to_folder.csv', 'w', newline='')
# csv_writer = csv.writer(csv_file)
# csv_writer.writerow(['titre', 'contrat', 'localisation', 'description'])
data = {
"titre": [],
"contrat": [],
"localisation": [],
"description": []
}
# A list of two URL's
listurl = ['https://candidat.pole-emploi.fr/offres/emploi/horticulteur/s1m1',
'https://candidat.pole-emploi.fr/offres/emploi/ouvrier-agricole/s1m2']
# Loop through the list
for i in listurl:
driver = webdriver.Chrome("D:chromedriver94chromedriver.exe", options=options)
driver.maximize_window()
driver.get(i)
# Click cookies popup
WebDriverWait(driver,30).until(EC.element_to_be_clickable((By.LINK_TEXT,"Continuer sans accepter"))).click()
# Get the elements
try:
zone = WebDriverWait(driver, 10).until(
EC.presence_of_element_located((By.CLASS_NAME, "zone-resultats"))
)
offres = zone.find_elements_by_css_selector("div.media-body")
offres2 = zone.find_elements_by_css_selector("div.media-right.media-middle.hidden-xs")
for offre in offres:
titre = (offre.find_element_by_css_selector("h2.t4.media-heading")).text
print(titre)
localisation = (offre.find_element_by_css_selector("span")).text
print(localisation)
description =(offre.find_element_by_class_name("description")).text
print(description)
for offre2 in offres2:
contrat = (offre2.find_element_by_class_name("contrat")).text
print(contrat)
data["titre"].append(titre)
data["contrat"].append(contrat)
data["localisation"].append(localisation)
data["description"].append(description)
except Exception as ex:
print(ex)
driver.quit()
df = pd.DataFrame.from_dict(data)
print(df)
df.to_csv("data.csv")
Комментарии:
1. Спасибо. Я отредактировал этот код с вашими правками и внес некоторые небольшие изменения. Случайно, вы не знаете, как правильно добавить фрейм данных ? Он возвращает только последний результат, поэтому в моем csv есть только одна строка
2. Я добавил новый код в предыдущий ответ. Это должно сработать для вас.
3. Скребок теперь отлично работает, повторяя два URL-адреса, спасибо. Хотя он записал только последние результаты, и, следовательно, CSV содержит только две строки. Но в любом случае это серьезный шаг вперед
4. Я наконец-то узнал, что блок с данными[«титр»].добавление(титр) должно быть в цикле. Теперь это работает идеально