标签:pageNum name word 爬虫 小白 file input page 综合
项目1:搜狗知乎,爬取指定存储上一级目录的名字,以及存储爬取的页码
#爬取前三页数据 import requests import os file_name=input('请输入一个文件名:') #创建一个文件夹 if not os.path.exists(f'./{file_name}'): os.mkdir(f'./{file_name}') word=input('enter a search word:') #动态指定页码的范围 start_pageNum=int(input('enter a start pageNum')) end_pageNum=int(input('enter a end pageNum')) #自定义请求头信息 headers={ 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36' } url='https://www.sogou.com/sogou' for page in range(start_pageNum,end_pageNum+1): params={ 'query':word, 'page':page, 'ie':'utf-8', 'insite':'zhihu.com' } response=requests.get(url=url,params=params,headers=headers) #获取响应中的页面数据(指定页码(page)) page_text=response.text #进行持久化存储 fileName=word+str(page)+'.html' filePath=f'./{file_name}/'+fileName with open(filePath,'w',encoding='utf-8')as fp: fp.write(page_text) print('第%d页数据写入成功'%page)
项目2:
标签:pageNum,name,word,爬虫,小白,file,input,page,综合 来源: https://www.cnblogs.com/studybrother/p/11073902.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。