<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      51job爬蟲

      51job爬蟲

        項目使用Python3.7爬取前程無憂對應關鍵字的招聘,保存到mongodb,爬取下來的數據,可分析出目前互聯網的近況,可統計到每個招聘崗位有多少,每個崗位的薪資分布情況

        github地址:https://github.com/HowName/51job

      • 統計結果圖,java還是老大哥
      • 爬取效果圖
      • mongodb數據圖
      • 使用到的庫(第三方庫建議使用pip進行安裝)
      • BeautifulSoup4,pymongo,requests,re,time
        

          

      • 項目主代碼
      • import re
        import time
        from bs4 import BeautifulSoup
        from pack.DbUtil import DbUtil
        from pack.RequestUtil import RequestUtil
        
        db = DbUtil()
        
        # 要查找的崗位
        keywords = ['php', 'java', 'python', 'node.js', 'go', 'hadoop', 'AI', '算法工程師', 'ios', 'android', '區塊鏈', '大數據']
        
        for keyword in keywords:
        
            cur_page = 1
            url = 'https://search.51job.com/list/030200,000000,0000,00,9,99,@keyword,2,@cur_page.html?lang=c&stype=&postchannel=0000&workyear=99&cotype=99&degreefrom=99&jobterm=99&companysize=99&providesalary=99&lonlat=0%2C0&radius=-1&ord_field=0&confirmdate=9&fromType=&dibiaoid=0&address=&line=&specialarea=00&from=&welfare=' \
                .replace('@keyword', str(keyword)).replace('@cur_page', str(cur_page))
            req = RequestUtil()
            html_str = req.get(url)
        
            # 從第一頁中查找總頁數
            soup = BeautifulSoup(html_str, 'html.parser')  # 推薦使用lxml
            the_total_page = soup.select('.p_in .td')[0].string.strip()
            the_total_page = int(re.sub(r"\D", "", the_total_page))  # 取數字
        
            print('keyword:', keyword, 'total page: ', the_total_page)
            print('start...')
        
            while cur_page <= the_total_page:
                """
                循環獲取每一頁
                """
        
                url = 'https://search.51job.com/list/030200,000000,0000,00,9,99,@keyword,2,@cur_page.html?lang=c&stype=&postchannel=0000&workyear=99&cotype=99&degreefrom=99&jobterm=99&companysize=99&providesalary=99&lonlat=0%2C0&radius=-1&ord_field=0&confirmdate=9&fromType=&dibiaoid=0&address=&line=&specialarea=00&from=&welfare=' \
                    .replace('@keyword', str(keyword)).replace('@cur_page', str(cur_page))
                req = RequestUtil()
                html_str = req.get(url)
        
                if html_str:
                    soup = BeautifulSoup(html_str, 'html.parser')
        
                    #  print(soup.prettify()) #格式化打印
        
                    the_all = soup.select('.dw_table .el')
                    del the_all[0]
        
                    # 讀取每一項招聘
                    dict_data = []
                    for item in the_all:
                        job_name = item.find(name='a').string.strip()
                        company_name = item.select('.t2')[0].find('a').string.strip()
                        area = item.select('.t3')[0].string.strip()
                        pay = item.select('.t4')[0].string
                        update_time = item.select('.t5')[0].string.strip()
        
                        dict_data.append(
                            {'job_name': job_name, 'company_name': company_name, 'area': area, 'pay': pay,
                             'update_time': update_time, 'keyword': keyword}
                        )
        
                    # 插入mongodb
                    db.insert(dict_data)
        
                    print('keyword:', keyword, 'success page:', cur_page, 'insert count:', len(dict_data))
                    time.sleep(0.5)
        
                else:
                    print('keyword:', keyword, 'fail page:', cur_page)
        
                # 頁數加1
                cur_page += 1
        
            else:
                print('keyword:', keyword, 'fetch end...')
        
        else:
            print('Mission complete!!!')
        

          

       

      posted @ 2019-05-08 18:57  756567406  閱讀(864)  評論(0)    收藏  舉報
      主站蜘蛛池模板: 邵阳市| 久久99精品久久99日本| 亚洲鸥美日韩精品久久| 国产人妻一区二区三区四区五区六| 91久久精品国产性色也| 国产亚洲色视频在线| 天天做天天爱夜夜爽毛片| 狠狠色婷婷久久综合频道日韩| 国产综合av一区二区三区| 亚洲青青草视频在线播放| 日本熟妇浓毛| 亚洲精品视频一二三四区| 亚洲最大国产成人综合网站| 黑人猛精品一区二区三区| 真人性囗交视频| 毛片无码免费无码播放| 嫩草欧美曰韩国产大片| 99久久er热在这里只有精品99| 久久99国产亚洲高清观看首页| 激情啪啪啪一区二区三区| 精品国产乱来一区二区三区| 大香伊蕉在人线国产免费| 国产超碰无码最新上传| 无套内谢少妇高清毛片| 中文字幕无码乱码人妻系列蜜桃| 国产精品国产片在线观看| 精品一区二区三区在线视频观看| 亚洲小说乱欧美另类| 欧美成人精品在线| 国产精品免费看久久久| 国产成人亚洲综合图区| 亚洲精品码中文在线观看| 一本无码人妻在中文字幕免费| 亚洲V天堂V手机在线| 欧美老熟妇乱子伦牲交视频| 日韩人妻无码精品久久久不卡 | 国产超碰人人做人人爰| 国产精品女同一区三区五区| 高清无码爆乳潮喷在线观看| 亚洲黄色片一区二区三区| 人妻伦理在线一二三区|