标签:__ name get url text self 爬取 小说
爬取小说:
from bs4 import BeautifulSoup import requests class spiderstory(object): def __init__(self): self.url = 'http://www.365haoshu.com/Book/Chapter/' self.names = []#存放章节名称 self.hrefs = []#存放章节链接 def get_urlandname(self): '''获取章节名称和和章节URL''' response = requests.get(url=self.url + 'List.aspx?NovelId=6686 ') req_parser = BeautifulSoup(response.text,"html.parser") div = req_parser.find_all('div',class_='user-catalog-ul-li') a_bf = BeautifulSoup(str(div)) a = a_bf.find_all('a') for i in a: self.names.append(i.find('span',class_='fl').string) self.hrefs.append(self.url + i['href']) def get_text(self,url): '''获取对应章节内容''' respons2 =requests.get(url=url) c = BeautifulSoup(str(respons2.text),'html.parser') b = c.find_all('p', class_='p-content') text = [] for temp in b: text.append(temp.string) return text def writer(self,name,path,text1): ''' 写入TXT文档''' with open(path,'a',encoding='utf-8') as f: f.write(name + '\n') f.writelines(text1) f.write('\n\n') if __name__ == "__main__": # 运行入口 a= spiderstory() a.get_urlandname() for i in range(len(a.names)): name = a.names[i] text = str(a.get_text(a.hrefs[i])) a.writer(name,'F:\小说.txt',text) print(a)
结果:
标签:__,name,get,url,text,self,爬取,小说 来源: https://www.cnblogs.com/CJR-QYF/p/12041058.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。