ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

爬取拉勾网全网数据——模拟浏览器

2019-10-26 15:54:32  阅读:221  来源: 互联网

标签:浏览器 拉勾 text li 爬取 soup position dic select


第一步:获取拉勾首页信息

 1 # 获取拉勾首页信息
 2 
 3 url = 'https://www.lagou.com/'
 4 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.70 Safari/537.36',
 5           'Connection': 'keep-alive',
 6            'Cookie': '_ga=GA1.2.759756292.1572002144; _gid=GA1.2.1024774356.1572002144; Hm_lvt_4233e74dff0ae5bd0a3d81c6ccf756e6=1572002144; user_trace_token=20191025191854-3af2cb8b-f719-11e9-a08c-525400f775ce; PRE_UTM=; PRE_HOST=cn.bing.com; PRE_SITE=https%3A%2F%2Fcn.bing.com%2F; PRE_LAND=https%3A%2F%2Fwww.lagou.com%2F; LGUID=20191025191854-3af2ce76-f719-11e9-a08c-525400f775ce; LGSID=20191025191854-3af2ccf6-f719-11e9-a08c-525400f775ce; index_location_city=%E5%85%A8%E5%9B%BD; _gat=1; LGRID=20191025192516-1eb14395-f71a-11e9-a607-5254005c3644; Hm_lpvt_4233e74dff0ae5bd0a3d81c6ccf756e6=1572002526; X_HTTP_TOKEN=7f3a7ebf1bb8dfc4987200275129b8d1ec41735636'
 7           }
 8 
 9 response = requests.get(url, headers=headers)
10 soup = BeautifulSoup(response.text, 'lxml')
11 # soup

第二步:获取首页所有职位链接

# 获取拉勾全网职位链接

all_info = soup.select('div.mainNavs a')
position_urls = []
for i in all_info:
    url = i.get('href')
    position_urls.append(url)
# position_urls

第三步:获取所对应链接的职位招聘信息

# 获取对应链接的职位信息

position_info = []

for i in position_urls:
#     print(i)
    response_i = requests.get(i, headers = headers)
    soup = BeautifulSoup(response_i.text, 'lxml')
#     print(soup)
    con_list = soup.select('ul.item_con_list')[1].select('li')
#     print(con_list[0])

   # 获取职位信息
    for li in con_list:
        dic = {}
        dic['position_name'] = li.select('h3')[0].text
        dic['address'] = li.select('span.add')[0].text
        dic['salary&experience'] = li.select('div.li_b_l')[0].text.split('\n')[1]
        dic['experience'] = li.select('div.li_b_l')[0].text.replace(' ','').split('\n')[2].split('/')[0]
        dic['degree'] = li.select('div.li_b_l')[0].text.replace(' ','').split('\n')[2].split('/')[1]
        dic['job_kind'] = li.select('div.li_b_l')[1].text.replace('\n','/')
        position_info.append(dic)
print(position_info)

 

标签:浏览器,拉勾,text,li,爬取,soup,position,dic,select
来源: https://www.cnblogs.com/syd123/p/11743423.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有