ICode9

精准搜索请尝试: 精确搜索
  • 在Python的urllib2 urlopen中检测超时错误2019-12-09 21:58:59

    我对Python还是比较陌生,因此,如果这是一个明显的问题,我深表歉意. 我的问题是关于urllib2库,它是urlopen函数.目前,我正在使用它从另一台服务器(它们都在同一远程主机上)加载大量页面,但是该脚本有时会因超时错误而被终止(我认为这是来自大型请求). 有没有办法让脚本在超时后保持

  • 爬虫之Urllib2019-11-17 17:01:17

    urllib是python内置的HTTP请求库包括以下模块  urllib.request 请求模块  urllib.error 异常处理模块  urllib.parse url解析模块  urllib.robotparser robots.txt解析模块 urlopen 关于urllib.request.urlopen参数的介绍:urllib.request.urlopen(url, data=None, [timeout

  • 在Python中缓存选项或加快urlopen2019-11-05 23:07:42

    嘿,我有一个网站供最终用户使用,它是用Python编写的,并且需要几个urlopen命令.结果,页面加载需要一点时间.我想知道是否有办法使其更快?有没有一种简单的Python缓存方式或一种使urlopen脚本有趣的方式? urlopens访问Amazon API以获取价格,因此该站点需要保持最新状态.我能想到的唯一

  • python机械化javascript提交按钮问题!2019-11-05 21:08:12

    我用mechanize.browser模块制作了一些脚本. 问题之一是所有其他事情都可以,但是当submit()表单不起作用时, 所以我被发现有一些怀疑来源. 在html源中,我被发现如下. 我在想,loginCheck(this)在提交表单时出现问题. 但是如何使用机械化模块处理这种javascript函数,所以我可以 成功提

  • python-从`urllib2.urlopen`获取错误文本2019-11-02 15:56:10

    我使用Python的urllib2.urlopen,并从服务器收到500错误.如何找到错误的文字?我希望它具有有用的信息.解决方法: from urllib2 import urlopen, HTTPError try: f = urlopen(url) except HTTPError, e: print(e.read())

  • 在Python中使用urlopen()防止“隐藏”重定向2019-10-30 20:56:20

    我正在使用BeautifulSoup进行网页抓取,并且在使用urlopen时遇到特定类型网站的问题.网站上的每个商品都有其独特的页面,并且商品具有不同的格式(例如:500 mL,1L,2L等). 当我使用Internet浏览器打开产品的URL(www.example.com/product1)时,会看到500 mL格式的图片,有关其的信息(价格,

  • Python:urlopen-如果发生任何错误,则跳过条目2019-10-29 14:55:19

    我想知道urlopen是否存在某种“全部捕获”代码,如果访问网站时发生任何错误,该代码会跳过for循环中的整个条目.解决方法:您可以使用try / except块捕获异常: # Python 3 example from urllib.error import URLError, HTTPError from urllib.request import urlopen for entry in e

  • 网络连接2019-10-08 13:04:50

      from urllib.request import urlopenhtml = urlopen("http://pythonscraping.com/pages/page1.html")print(html.read()) output b'<html>\n<head>\n<title>A Useful Page</title>\n</head>\n<body>\n<h1>

  • python – urllib2.urlopen()缓存内容吗?2019-10-01 11:58:01

    他们没有在python文档中提到这一点.最近我正在测试一个网站只是使用urllib2.urlopen()来刷新网站以提取某些内容,我注意到有时当我更新网站时,urllib2.urlopen()似乎没有得到新添加的内容.所以我想它确实在某处缓存了东西,对吧?解决方法: So I wonder it does cache stuff somewher

  • python – 让JSON对象接受字节或让urlopen输出字符串2019-09-15 18:59:27

    使用Python 3,我从URL请求json文档. response = urllib.request.urlopen(request) 响应对象是一个具有read和readline方法的类文件对象.通常,可以使用以文本模式打开的文件创建JSON对象. obj = json.load(fp) 我想做的是: obj = json.load(response) 但是,这不起作用,因为urlo

  • 11 urllib2 异常URLError和HTTPError2019-08-29 16:38:33

    在我们用urlopen或opener.open方法发出一个请求时,如果urlopen或opener.open不能处理这个response,就产生错误。 这里主要说的是URLError和HTTPError,以及对它们的错误处理。 URLError URLError 产生的原因主要有: 没有网络连接 服务器连接失败 找不到指定的服务器 我们可

  • Mercurial和nginx.错误100542019-07-30 02:09:56

    当我将文件推送到服务器时,60秒后我得到“urlopen错误[Errno 10054]”.我认为这是因为我推送大文件. 我使用nginx web-server和fast-cgi进程.什么nginx参数负责60秒超时?或许我应该看到另一种方式?解决方法:请参考:http://code.google.com/p/support/issues/detail?id=2716. 如果您使

  • 如何使用Python urlopen设置cookie?2019-07-29 19:56:49

    我试图使用Python urlopen获取一个html站点. 我收到此错误: HTTPError: HTTP Error 302: The HTTP server returned a redirect error that would lead to an infinite loop 代码: from urllib2 import Request request = Request(url) response = urlopen(request) 我知道服务

  • 【Python】Python3网络爬虫实战-20、使用Urllib:发送请求2019-07-26 22:39:21

    学习爬虫,最初的操作便是来模拟浏览器向服务器发出一个请求,那么我们需要从哪个地方做起呢?请求需要我们自己来构造吗?我们需要关心请求这个数据结构的实现吗?我们需要了解 HTTP、TCP、IP 层的网络传输通信吗?我们需要知道服务器的响应和应答原理吗? 可能你不知道无从下手,不用担心,P

  • python – 如何处理“getaddrinfo失败”?2019-07-26 13:58:53

    你好,我有问题.我使用mechanize,python 2.7连接一些网站(代码现在不重要)我有网站列表,我现在连接到它们.当它发生时我的列表中的网站不存在我得到错误: urllib2.URLError: [Errno 11004] getaddrinfo failed 我尝试通过这样做来处理它: except mechanize.URLError

  • 几次调用后,通过代理的urlib2.urlopen失败了2019-07-04 23:57:35

    编辑:经过多次摆弄后,似乎urlgrabber在urllib2失败的地方成功,即使告诉它在每个文件后关闭连接.似乎urllib2处理代理的方式可能有问题,或者我使用它的方式! 无论如何,这是在循环中检索文件的最简单的代码: import urlgrabber for i in range(1, 100): url = "http://www.iana.or

  • 【Python3网络爬虫开发实战】3.1.1-发送请求2019-07-03 11:54:40

    【摘要】使用urllib的request模块,我们可以方便地实现请求的发送并得到响应,本节就来看下它的具体用法。 1. urlopen() urllib.request模块提供了最基本的构造HTTP请求的方法,利用它可以模拟浏览器的一个请求发起过程,同时它还带有处理授权验证(authenticaton)、重定向(redirection)、

  • Python : 标准库-关于urlopen的补充2019-06-16 22:52:17

    处理get请求,不传data,则为get请求 import urllib from urllib.request import urlopen from urllib.parse import urlencode url=‘http://www.xxx.com/login’ data={“username”:“admin”,“password”:123456} req_data=urlencode(data)#将字典类型的请求数据转变为url

  • urllib库之四大属性(Request)2019-06-10 17:52:34

    在python2中有urllib库和urllib2库来实现请求的发送,但在python3后统一为urllib库,由于urllib库是Python内置库,所以不需要额外安装下载。 request:最基本的HTTP請求模塊,用來模拟发送请求(如:在瀏覽器輸入網址後回車)  ★ error:異常處理模塊,如果出現請求錯誤,我們則可以捕獲這些

  • BeautifulSoup2019-06-10 15:39:35

    安装BeautifulSoup 1.Linux 系统上的安装:   sudo apt-get install python-bs4 2.Mac系统   pip install beatifulsoup4 3.Windows系统   pip install beatifulsoup4   html = urlopen("http://www.baidu.com") 这行代码可能出现两种异常 1.网页在服务器上不存在 2.服务器不

  • Python之urllib库详解2019-06-01 18:02:47

    urllib 是 Python 标准库中用于网络请求的库。 该库有四个模块,分别是: urllib.request urllib.error urllib.parse urllib.robotparser 1 发起请求 模拟浏览器发起一个 HTTP 请求,我们需要用到 urllib.request 模块。urllib.request 的作用不仅仅是发起请求, 还能获取请求返回结果。发

  • Python3 urllib.request库的基本使用2019-05-04 10:56:14

    urllib.request库 是 Python3 自带的模块(不需要下载,导入即可使用)python 自带的模块库文件都是在C:\Python\Lib目录下(C:\Python是我Python的安装目录),python第三方模块库都是在C:\Python\Lib\site-packages 下。urllib.request库在windows下的路径(C:\Python\Lib\urllib)。 一:用urlli

  • AttributeError: module 'urllib' has no attribute 'urlopen'2019-04-20 17:56:48

    AttributeError: module ‘urllib’ has no attribute ‘urlopen’ import urllib response = urllib.urlopen('http://www.baidu.com') print(response.read()) 问题描述:使用PYTHON写一个访问任意URL的方法,运行报错: AttributeError: module ‘urllib’ has no attribute ‘

  • 爬虫如何设置ua和代理ip2019-04-09 17:56:21

    一、设置User-Agent1、创建Request对象时指定headersurl = 'http://ip.zdaye.com/'head = {}head['User-Agent'] = 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166 Safari/535.19&#

  • 0.爬虫 urlib库讲解 urlopen()与Request()2019-04-09 11:40:43

    # 注意一下 是import urllib.request 还是 form urllib import request 0. urlopen() 语法:urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=False, context=None) 实例0:(这个函数 一般就使用三个参数 url data timeout) *添加的data

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有