не удается очистить данные, и даже ссылки не меняются при щелчке по разбивке на страницы с использованием python

#python-3.x

#python-3.x

Вопрос:

хочу очистить данные из каждого блока и хочу изменить страницы, но не могу этого сделать, помогите мне кто-нибудь взломать это.

я пытался сканировать данные, используя заголовки и данные формы, но не смог этого сделать. ниже приведен мой код.

 from bs4 import BeautifulSoup

import requests

url='http://www.msmemart.com/msme/listings/company-list/agriculture-product-stocks/1/585/Supplier'


headers={
    "Content-Type": "application/x-www-form-urlencoded; charset=UTF-8",

    "Cookie": "unique_visitor=49.35.36.33; __utma=189548087.1864205671.1549441624.1553842230.1553856136.3; __utmc=189548087; __utmz=189548087.1553856136.3.3.utmcsr=nsic.co.in|utmccn=(referral)|utmcmd=referral|utmcct=/; csrf=d665df0941bbf3bce09d1ee4bd2b079e; ci_session=ac6adsb1eb2lcoogn58qsvbjkfa1skhv; __utmt=1; __utmb=189548087.26.10.1553856136",

    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36",

    "X-Requested-With": "XMLHttpRequest",

    "Accept": "application/json, text/javascript, */*; q=0.01",
    
    }
data ={
    
    'catalog': 'Supplier',
    'category':'1',
    'subcategory':'585',
    'type': 'company-list',
    'csrf': '0db0757db9473e8e5169031b7164f2a4'

    } 
r = requests.get(url,data=data,headers=headers)

soup = BeautifulSoup(html,'html.parser')

div = soup.find('div',{"id":"listings_result"})

for prod in div.find_all('b',string='Products/Services:').next_sibling:

      print(prod)
  

получая «ConnectionResetError: [WinError 10054] Существующее соединение было принудительно закрыто удаленным хостом» 2-3 раза, я хочу просмотреть все текстовые данные в блоке. пожалуйста, кто-нибудь, помогите мне найти это.

Комментарии:

1. в какой строке вы получаете ошибку ConnectionResetError? почему вы делаете 2-й запрос get?

2. Я удаляю первые requests.get, а затем запускаю его, но получаю одну и ту же ошибку несколько раз, и в этот момент возникает ошибка «r = requests.get (url,data =данные, headers = заголовки)», помогите мне получить это.