ICode9

精准搜索请尝试: 精确搜索
首页 > 编程语言> 文章详细

Python 股票数据采集并做数据可视化(爬虫 + 数据分析)

2022-06-24 17:00:12  阅读:210  来源: 互联网

标签:Python 数据 list 爬虫 可视化 requests csv data data2


前 言

嗨喽!大家好,这里是魔王!

课 题:

Python 股票数据采集并做数据可视化(爬虫 + 数据分析)

课题介绍:

我国股票投资者数量为15975.24万户, 如此多的股民热衷于炒股,

首先抛开炒股技术不说, 那么多股票数据是不是非常难找,

找到之后是不是看着密密麻麻的数据是不是头都大了?

今天带大家爬取某平台的股票数据

课程亮点

  1. 系统分析网页性质
  2. 结构化的数据解析
  3. csv数据保存
  4. 数据可视化

开发环境 & 第三方模块:

  • 解释器版本: python 3.8
  • 代码编辑器: pycharm 2021.2
  • requests
    安装方法: pip install requests
  • csv

爬虫案例的步骤:

  1. 确定url地址(链接地址)
  2. 发送网络请求
  3. 数据解析(筛选数据)
  4. 数据的保存(数据库(mysql\mongodb\redis), 本地文件)

本次目标:

https://xueqiu.com/hq#exchange=CN&plate=1_3_2&firstName=1&secondName=1_3&type=sha&order=desc&order_by=amount


 

 

 

导入模块

import requests     # 发送网络请求
import csv

 

代码

file = open('data2.csv', mode='a', encoding='utf-8', newline='')
csv_write = csv.DictWriter(file, fieldnames=['股票代码','股票名称','当前价','涨跌额','涨跌幅','年初至今','成交量','成交额','换手率','市盈率(TTM)','股息率','市值'])
csv_write.writeheader()
# 1.确定url地址(链接地址)
for page in range(1, 56):
    url = f'https://xueqiu.com/service/v5/stock/screener/quote/list?page={page}&size=30&order=desc&order_by=amount&exchange=CN&market=CN&type=sha&_=1637908787379'
    # 2.发送网络请求
    # 伪装
    headers = {
        # 浏览器伪装
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36'
    }
    response = requests.get(url, headers=headers)
    json_data = response.json()
    # print(json_data)
    # 3.数据解析(筛选数据)
    data_list = json_data['data']['list']
    for data in data_list:
        data1 = data['symbol']
        data2 = data['name']
        data3 = data['current']
        data4 = data['chg']
        data5 = data['percent']
        data6 = data['current_year_percent']
        data7 = data['volume']
        data8 = data['amount']
        data9 = data['turnover_rate']
        data10 = data['pe_ttm']
        data11 = data['dividend_yield']
        data12 = data['market_capital']
        print(data1, data2, data3, data4, data5, data6, data7, data8, data9, data10, data11, data12)
        data_dict = {
            '股票代码': data1,
            '股票名称': data2,
            '当前价': data3,
            '涨跌额': data4,
            '涨跌幅': data5,
            '年初至今': data6,
            '成交量': data7,
            '成交额': data8,
            '换手率': data9,
            '市盈率(TTM)': data10,
            '股息率': data11,
            '市值': data12,
        }
        csv_write.writerow(data_dict)
file.close()

 

炒股总结图

 

 


数据可视化

"""
数据分析: anaconda >>> jupyter notebook  文件格式 .ipynb
"""
import pandas as pd     # 做表格处理

data_df = pd.read_csv('data2.csv')
print(data_df)

 

 

 

 

 

 


好了,我的这篇文章写到这里就结束啦!

 

有更多建议或问题可以评论区或私信我哦!一起加油努力叭(ง •_•)ง

 

喜欢就关注一下博主,或点赞收藏评论一下我的文章叭!!!

标签:Python,数据,list,爬虫,可视化,requests,csv,data,data2
来源: https://www.cnblogs.com/Qqun261823976/p/16406885.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有