标签:headers python url 模块 time 壁纸 response 爬点
每天我的壁纸都是Windows自带的天蓝色,看的真的没意思,有意思吗,没意思~ 所以啊,当然的整一手高质量壁纸,没有别的意思,只为了心情愉悦~ 好了,不多哔哔,开启今天的高质量旅途~ 一、准备工作 这些统统安排上 软件- python 3.6
- pycharm
- requests
- parsel
import requests # 请求模块 第三方模块 pip install requests import parsel # 数据解析模块 第三方模块 pip install parsel import time # 时间模块 内置模块 time_1 = time.time() # 要什么用模块 首先要知道模块有什么用 for page in range(2, 12): print(f'====================正在爬取第{page}页的数据内容====================') url = f'http://www.netbian.com/1920x1080/index_{page}.htm' # 请求头: 把python代码伪装成浏览器对服务器发送请求 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.114 Safari/537.36' } response = requests.get(url=url, headers=headers) # 出现乱码怎么办? 需要转码 # html_data = response.content.decode('gbk') response.encoding = response.apparent_encoding # 自动转码 # 获取源代码/获取网页文本数据 response.text # print(response.text) # 解析数据 selector = parsel.Selector(response.text) # CSS选择器 就是根据网页标签内容提取数据 # 第一次提取 提取所有的li标签内容 lis = selector.css('.list li') for li in lis: # http://www.netbian.com/desk/23397.htm title = li.css('b::text').get() if title: href = 'http://www.netbian.com' + li.css('a::attr(href)').get() response_1 = requests.get(url=href, headers=headers) selector_1 = parsel.Selector(response_1.text) img_url = selector_1.css('.pic img::attr(src)').get() img_content = requests.get(url=img_url, headers=headers).content with open('img\\' + title + '.jpg', mode='wb') as f: f.write(img_content) print('正在保存: ', title) time_2 = time.time() use_time = int(time_2) - int(time_1) print(f'总计耗时{use_time}秒')
我还给大家准备了这些资料,直接在这里免费领。
# 一群:872937351 (群满了的话加二群) # 二群:924040232 # python学习路线汇总 # 精品Python学习书籍100本 # Python入门视频合集 # Python实战案例 # Python面试题 # Python相关软件工具/pycharm永久激活
大家可以自己运行试试,记得三连哇~
标签:headers,python,url,模块,time,壁纸,response,爬点 来源: https://www.cnblogs.com/hahaa/p/15700074.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。