#python #pyppeteer
Вопрос:
друг.
Таким образом, существует csv-файл, содержащий пары имени и URL-адреса. И есть я, желающий получить URL-адрес запросов, которые отправляет каждый из этих заданных URL-адресов.
Одна страница = один URL — адрес запроса, хотя, если это важно, этот запрос отправляется повторно.
С помощью этого кода я получаю <coroutine object get_req_url at 0x0000021EF0F0E8C0>
вместо желаемого https://*
Что я делаю не так? В каком направлении мне следует смотреть, что искать в Google за ограниченное время?
Заранее спасибо за любую помощь, хорошего дня! 🙂
import csv
from requests_html import HTMLSession
from requests import Request, Session
from pyppeteer.network_manager import Request
session = HTMLSession()
inFile = csv file
async def get_req_url(url):
tRequest = await page.waitForRequest(url)
trUrl = tRequest.url.headers
with open(inFile, 'r', newline='', encoding='utf8') as csvfile:
items = list(csv.reader(csvfile))
#set index for extracting values from given data
index = 0
for item in items:
#iterating index, skipping headings row
index = 1
if index == len(items):
continue
#extract the name-url pair
itemElem = str(items[index])
p1 = itemElem.find("'")
p2 = itemElem.find(";")
#decompose pair into name and url individually
itemName = itemElem[2:p2]
itemUrl = itemElem[(p2 1):-2]
print('Name: ' itemName)
print('URL: ' itemUrl)
#continue
r = session.get(itemUrl)
r.html.render()
trUrl = get_req_url(itemUrl)
print(trUrl)
Комментарии:
1. Все еще интересует ответ, хотя задача выполняется с помощью инструмента автоматизации с обычным инструментом проверки браузера (да, я обезьяна :P)