标签:10 27 webdriver selenium element 2021 import wait browser
这里写自定义目录标题
python爬取上市公司财务数据
爬取入口
http://data.eastmoney.com/bbsj/201112/yjbb.html
使用selenium进行爬取的,本来参考其他博主的代码,但是有人反馈遇到乱码问题,我使用pandas read_html()进行解析的,没有碰到,效率还是很高的,也比较通用。
上代码吧
from selenium import webdriver
from selenium.common.exceptions import TimeoutException
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait
import time
import pandas as pd
import os
from time import sleep
chrome_options = webdriver.ChromeOptions()
browser = webdriver.Chrome(chrome_options=chrome_options)
browser.maximize_window() # 最大化窗口
wait = WebDriverWait(browser, 10)
df=pd.DataFrame()
for p in range(2010,2021):
url = 'http://data.eastmoney.com/bbsj/'+str(p)+'12/yjbb.html'
print(url)
browser.get(url)
i=1
page=0
while True:
element = browser.find_elements_by_class_name("dataview-body")
tb = pd.read_html(element[0].get_attribute("outerHTML"))[0]
tb["年份"]=p
df=df.append(tb)
#判断是否最后一页
nextpage = browser.find_elements_by_link_text("下一页")
if len(nextpage)==0:
break
i=i+1
#翻页功能
while True:
try:
next_page =wait.until(EC.presence_of_element_located((By.LINK_TEXT,"下一页")))
wait.until(EC.element_to_be_clickable((By.LINK_TEXT,"下一页")) )
next_page.click()
if wait.until(EC.text_to_be_present_in_element((By.CLASS_NAME,"active"), str(i))):
break
except:
pass
df.to_excel("C:\\Users\\CT\\Desktop\\222.xlsx")
标签:10,27,webdriver,selenium,element,2021,import,wait,browser 来源: https://blog.csdn.net/qq_15114041/article/details/120999133
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。