#python #selenium #web-scraping
#питон #селен #соскабливание паутины
Вопрос:
lt;a href="/sghg/Useful-data(1)/Po7jkawb9" class="_1dTQ"gt; lt;divgt; " Useful_data (1) " lt;div class="body-2 ash--text"gt; Useless_data lt;/divgt; lt;/divgt; lt;a href="/sghg/Useful-data(2)/Po7jkawb9" class="_1dTQ"gt; lt;divgt; " Useful_data (2) " lt;div class="body-2 ash--text"gt; Useless_data lt;/divgt; lt;/divgt;
Это Код Магии. Как мы видим, Полезные данные находятся в том же div, что и бесполезные данные.
В настоящее время я выбираю данные с помощью этого метода:
Useful_data(1) = driver.find_element(By.TAG_NAME, "a._1dTQ:nth-of-type(1)") Useful_data(2) = driver.find_element(By.TAG_NAME, "a._1dTQ:nth-of-type(2)") print(re.sub(",", " ", "Usefull_data.text(1): " Usefull_data.text(1))) print(re.sub(",", " ", "Usefull_data.text(2): " Usefull_data.text(2))) f.write( "{0},{1},{2},{3}n".format(re.sub(",", "", driver.title), UsefullData_amount.text, re.sub(",", " ", Usefull_data(1).text), re.sub(",", " ", Usefull_data(2).text)))
Затем результаты печатаются в формате CSV Пример текущих результатов
По этой причине я ищу способ избежать выбора Useless_data или объединить оба в одну ячейку (я могу удалить их позже с помощью функций Excel.) Все, что позволяет избежать формирования новой строки в CSV после каждого результата
На любые вопросы мы ответим незамедлительно. Спасибо 🙂