标签:基本 url 爬虫 content headers print requests response
1.基本使用
1.1 文档
官方文档:
http://cn.python-requests.org/zh_CN/latest/
快速上手:
http://cn.python-requests.org/zh_CN/latest/user/quickstart.html
1.2.安装
pip install requests
或
pip install requests -i https://pypi.douban.com/simple
1.3.response的属性及类型
类型:models.Response
r.text: 获取网站源码
r.encoding: 访问或定制编码方式
r.url: 获取请求的url
r.content: 响应的字节类型
r.status_code: 响应的状态码
r.headers: 响应的头信息
import requests url= 'http://www.baidu.com' #一个类型和六个属性 response = requests.get(url=url) print(type(response)) #设置响应的编码格式 response.encoding='utf-8' #以字符串的形式来返回了网页的源码(常用) print(response.text) #返回一个url地址 print(response.url) #返回二进制数据 print(response.content) # 返回响应的状态码 print(response.status_code) # 返回的是响应头信息 print(response.headers)
2.request的get请求
import requests url='https://www.baidu.com/s?' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.67 Safari/537.36' } data={ 'wd':'北京' } # url 请求资源路径 # params 参数 # kwargs 字典 response = requests.get(url=url,params=data,headers=headers) content = response.text print(content) # 总结: # (1)参数使用params传递 # (2)参数无需urlencode编码 # (3)不需要请求对象定制 # (4)请求资源路径中的?可以加也可以不加
标签:基本,url,爬虫,content,headers,print,requests,response 来源: https://www.cnblogs.com/ckfuture/p/16314077.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。