Получите URL-адрес запроса, отправленного страницей, отображаемой с помощью pyppeteer

#python #pyppeteer

Вопрос:

друг.

Таким образом, существует csv-файл, содержащий пары имени и URL-адреса. И есть я, желающий получить URL-адрес запросов, которые отправляет каждый из этих заданных URL-адресов.

Одна страница = один URL — адрес запроса, хотя, если это важно, этот запрос отправляется повторно.

С помощью этого кода я получаю <coroutine object get_req_url at 0x0000021EF0F0E8C0> вместо желаемого https://*

Что я делаю не так? В каком направлении мне следует смотреть, что искать в Google за ограниченное время?

Заранее спасибо за любую помощь, хорошего дня! 🙂

 import csv
from requests_html import HTMLSession
from requests import Request, Session
from pyppeteer.network_manager import Request

session = HTMLSession()
inFile = csv file

async def get_req_url(url):
    tRequest = await page.waitForRequest(url)
    trUrl = tRequest.url.headers

with open(inFile, 'r', newline='', encoding='utf8') as csvfile:
    items = list(csv.reader(csvfile))

#set index for extracting values from given data
index = 0

for item in items:
    #iterating index, skipping headings row
    index  = 1
    if index == len(items):
        continue
    #extract the name-url pair
    itemElem = str(items[index])

    p1 = itemElem.find("'")
    p2 = itemElem.find(";")

    #decompose pair into name and url individually
    itemName = itemElem[2:p2]
    itemUrl = itemElem[(p2   1):-2]
    print('Name: '   itemName)
    print('URL: '   itemUrl)

    #continue
    r = session.get(itemUrl)
    r.html.render()
    trUrl = get_req_url(itemUrl)


    print(trUrl)
 

Комментарии:

1. Все еще интересует ответ, хотя задача выполняется с помощью инструмента автоматизации с обычным инструментом проверки браузера (да, я обезьяна :P)