标签:www httpbin url resp urllib org
1. API
1.1 发送POST请求:
import urllib.request
import urllib.parse
url = "http://www.httpbin.org/post"
# 请求数据
data = bytes(urllib.parse.urlencode({"name": "张飞"}), encoding="utf-8")
resp = urllib.request.urlopen(url, data=data)
print(resp.read().decode("utf-8"))
out:
{
"args": {},
"data": "",
"files": {},
"form": {
"name": "\u5f20\u98de"
},
"headers": {
"Accept-Encoding": "identity",
"Content-Length": "23",
"Content-Type": "application/x-www-form-urlencoded",
"Host": "www.httpbin.org",
"User-Agent": "Python-urllib/3.10",
"X-Amzn-Trace-Id": "Root=1-61f13a4c-0a4e177c2091473a7c9bf70d"
},
"json": null,
"origin": "223.73.1.176",
"url": "http://www.httpbin.org/post"
}
1.2 发送GET 请求:
注意 "User-Agent": "Python-urllib/3.10", 在爬虫的时候上送头如果不修改伪装为浏览器的话‘
有的网站会识别出来返回HTTP 418
url = 'http://www.httpbin.org/get'
try:
# timeout 可以指定等待时间,超过后会抛出异常
resp = urllib.request.urlopen(url, timeout=0.01)
print(resp.read().decode('utf-8'))
except urllib.error.URLError as e:
print(e)
out:
{
"args": {},
"headers": {
"Accept-Encoding": "identity",
"Host": "www.httpbin.org",
"User-Agent": "Python-urllib/3.10",
"X-Amzn-Trace-Id": "Root=1-61f13d11-6884fbc355aa3d4b5d7e85cc"
},
"origin": "223.73.1.176",
"url": "http://www.httpbin.org/get"
}
标签:www,httpbin,url,resp,urllib,org 来源: https://www.cnblogs.com/czzz/p/15848050.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。