<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      python 爬取原力文檔日語學習資料

      參考

      https://blog.csdn.net/weixin_46184311/article/details/115291441

      代碼

      import requests, json, re, time, urllib.request
      import time
      import wget
      
      
      def getParameter(url):  # 獲取文檔參數
          text_response = requests.get(url=url, headers=headers).text
          actual_page = int(re.search('actual_page: (\d+), //真實頁數', text_response).group(1))  # 頁數
          aid = re.search('aid: (\d+), //解密后的id', text_response).group(1)  # aid
          view_token = re.search('view_token: \'(.*?)\'', text_response).group(1)  # view_token
          print('actual_page:', actual_page, '\naid:', aid, '\nview_token:', view_token)
          return actual_page, aid, view_token
      
      
      def requests_data(parameter, page):  # 請求數據
          url = 'https://openapi.book118.com/getPreview.html'
          params = {
              'project_id': '1',
              'aid': parameter[1],
              'view_token': parameter[2],
              'page': page,
          }
          response = requests.get(url=url, headers=headers, params=params).text
          json_data = re.search('jsonpReturn\((.*?)\);', response).group(1)  # 使用正則表達式所需數據
          data = json.loads(json_data)['data']
          return data
      
      
      
      if __name__ == '__main__':
          results = []
          headers = {
              'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36'}
          text_url = 'https://max.book118.com/html/2023/0208/6230222112005044.shtm'
          parameter = getParameter(text_url)
          print(parameter)
          for page in range(1, parameter[0]+1, 6):
              print(page)
              result = requests_data(parameter, page)
              print(result)
              for id, url in result.items():
                  url = 'https:'+url
                  print(f'downloading: {id}, {url} ')
                  wget.download(url=url, out=f'imgs/{id}.png')
              time.sleep(1)
      
      
      posted @ 2023-06-18 21:01  裏表異體  閱讀(103)  評論(0)    收藏  舉報
      主站蜘蛛池模板: 亚洲熟妇自偷自拍另类| 性色欲情网站iwww九文堂| 日韩乱码人妻无码中文字幕视频| 免费观看欧美猛交视频黑人| 人人超人人超碰超国产| 九九热免费精品在线视频| 久久精品国产久精国产果冻传媒| 国产一区二区日韩在线| 人妻饥渴偷公乱中文字幕| 亚洲av优女天堂熟女久久| 亚洲人成网网址在线看| 亚洲人成小说网站色在线| 亚洲精品成人综合色在线| 毛片免费观看天天干天天爽| 国产亚洲精品第一综合麻豆| 亚洲天堂男人的天堂在线| 亚洲日韩av无码中文字幕美国| 亚洲经典av一区二区| 成人亚欧欧美激情在线观看| 国产午夜福利视频合集| av激情亚洲男人的天堂| 久久不卡精品| 色猫咪av在线观看| 亚洲的天堂在线中文字幕| 熟女熟妇伦av网站| 日韩av高清在线看片| 无码成人午夜在线观看| 如东县| 国产一区二区三区不卡视频| 色综合久久网| 亚洲国产成人久久一区久久| 日韩日韩日韩日韩日韩熟女| 性xxxx欧美老妇胖老太性多毛 | 久久精品国产99久久6| 欧美老少配性行为| 亚洲中文字幕成人综合网| 中江县| 四虎国产精品永久入口| 强奷乱码中文字幕| 无码av最新无码av专区| 国产激情无码一区二区三区|