京公网安备 11010802034615号
经营许可证编号:京B2-20210330
Python股票历史数据的获取
获取股票数据的接口很多,免费的接口有新浪、网易、雅虎的API接口,收费的就是证券公司及相应的公司提供的接口。
收费试用的接口一般提供的数据只是最近一年或三年的,限制比较多,除非money足够多。
所以本文主要讨论的是免费数据的获取及处理。
国内提供股票数据的接口如sinajs,money.163.com,yahoo,它们提供的API接口不同,每家提供的数据大同小异,可以选择一家的数据来处理。
目前,国内有一个开源的财经数据获取包,封装了上述的接口,不需关系数据源从哪去,它会优先从最快的源来取数据。使用起来非常方便。它是TuShare,具体的安装使用见链接。
本文基于TuShare的数据获取基础上开发,介绍如何获取A股所有股票的历史K线数据。
一、获取A股上市公司列表
import tushare as ts
import pandas as pd
def download_stock_basic_info():
try:
df = ts.get_stock_basics()
#直接保存到csv
print 'choose csv'
df.to_csv('stock_basic_list.csv');
print 'download csv finish'
股票列表中包括当前A股的2756只股票的基本信息,包括:
code,代码
name,名称
industry,所属行业
area,地区
pe,市盈率
outstanding,流通股本
totals,总股本(万)
totalAssets,总资产(万)
liquidAssets,流动资产
fixedAssets,固定资产
reserved,公积金
reservedPerShare,每股公积金
eps,每股收益
bvps,每股净资
pb,市净率
timeToMarket,上市日期
二、获取单只股票的历史K线
获取的日K线数据包括:
date : 交易日期 (index)
open : 开盘价(前复权,默认)
high : 最高价(前复权,默认)
close : 收盘价(前复权,默认)
low : 最低价(前复权,默认)
open_nfq : 开盘价(不复权)
high_nfq : 最高价(不复权)
close_nfq : 收盘价(不复权)
low_nfq : 最低价(不复权)
open_hfq : 开盘价(后复权)
high_hfq : 最高价(后复权)
close_hfq : 收盘价(后复权)
low_hfq : 最低价(后复权)
volume : 成交量
amount : 成交金额
下载股票代码为code的股票历史K线,默认为上市日期到今天的K线数据,支持递增下载,如本地已下载股票60000的数据到2015-6-19,再次运行则会从6.20开始下载,追加到本地csv文件中。
# 默认为上市日期到今天的K线数据
# 可指定开始、结束日期:格式为"2015-06-28"
def download_stock_kline(code, date_start='', date_end=datetime.date.today()):
code = util.getSixDigitalStockCode(code) # 将股票代码格式化为6位数字
try:
fileName = 'h_kline_' + str(code) + '.csv'
writeMode = 'w'
if os.path.exists(cm.DownloadDir+fileName):
#print (">>exist:" + code)
df = pd.DataFrame.from_csv(path=cm.DownloadDir+fileName)
se = df.head(1).index #取已有文件的最近日期
dateNew = se[0] + datetime.timedelta(1)
date_start = dateNew.strftime("%Y-%m-%d")
#print date_start
writeMode = 'a'
if date_start == '':
se = get_stock_info(code)
date_start = se['timeToMarket']
date = datetime.datetime.strptime(str(date_start), "%Y%m%d")
date_start = date.strftime('%Y-%m-%d')
date_end = date_end.strftime('%Y-%m-%d')
# 已经是最新的数据
if date_start >= date_end:
df = pd.read_csv(cm.DownloadDir+fileName)
return df
print 'download ' + str(code) + ' k-line >>>begin (', date_start+u' 到 '+date_end+')'
df_qfq = ts.get_h_data(str(code), start=date_start, end=date_end) # 前复权
df_nfq = ts.get_h_data(str(code), start=date_start, end=date_end) # 不复权
df_hfq = ts.get_h_data(str(code), start=date_start, end=date_end) # 后复权
if df_qfq is None or df_nfq is None or df_hfq is None:
return None
df_qfq['open_no_fq'] = df_nfq['open']
df_qfq['high_no_fq'] = df_nfq['high']
df_qfq['close_no_fq'] = df_nfq['close']
df_qfq['low_no_fq'] = df_nfq['low']
df_qfq['open_hfq']=df_hfq['open']
df_qfq['high_hfq']=df_hfq['high']
df_qfq['close_hfq']=df_hfq['close']
df_qfq['low_hfq']=df_hfq['low']
if writeMode == 'w':
df_qfq.to_csv(cm.DownloadDir+fileName)
else:
df_old = pd.DataFrame.from_csv(cm.DownloadDir + fileName)
# 按日期由远及近
df_old = df_old.reindex(df_old.index[::-1])
df_qfq = df_qfq.reindex(df_qfq.index[::-1])
df_new = df_old.append(df_qfq)
#print df_new
# 按日期由近及远
df_new = df_new.reindex(df_new.index[::-1])
df_new.to_csv(cm.DownloadDir+fileName)
#df_qfq = df_new
print '\ndownload ' + str(code) + ' k-line finish'
return pd.read_csv(cm.DownloadDir+fileName)
except Exception as e:
print str(e)
return None
## private methods ##
#######################
# 获取个股的基本信息:股票名称,行业,地域,PE等,详细如下
# code,代码
# name,名称
# industry,所属行业
# area,地区
# pe,市盈率
# outstanding,流通股本
# totals,总股本(万)
# totalAssets,总资产(万)
# liquidAssets,流动资产
# fixedAssets,固定资产
# reserved,公积金
# reservedPerShare,每股公积金
# eps,每股收益
# bvps,每股净资
# pb,市净率
# timeToMarket,上市日期
# 返回值类型:Series
def get_stock_info(code):
try:
sql = "select * from %s where code='%s'" % (STOCK_BASIC_TABLE, code)
df = pd.read_sql_query(sql, engine)
se = df.ix[0]
except Exception as e:
print str(e)
return se
三、获取所有股票的历史K线
# 获取所有股票的历史K线
def download_all_stock_history_k_line():
print 'download all stock k-line'
try:
df = pd.DataFrame.from_csv(cm.DownloadDir + cm.TABLE_STOCKS_BASIC + '.csv')
pool = ThreadPool(processes=10)
pool.map(download_stock_kline, df.index)
pool.close()
pool.join()
except Exception as e:
print str(e)
print 'download all stock k-line'
Map来自函数语言Lisp,map函数能够按序映射出另一个函数。
urls = ['http://www.yahoo.com', 'http://www.reddit.com']
results = map(urllib2.urlopen, urls)
有两个能够支持通过map函数来完成并行的库:一个是multiprocessing,另一个是鲜为人知但功能强大的子文件:multiprocessing.dummy。
Dummy就是多进程模块的克隆文件。唯一不同的是,多进程模块使用的是进程,而dummy则使用线程(当然,它有所有Python常见的限制)。
通过指定processes的个数来调用多线程。
附:文中用到的其他函数及变量,定义如下:
TABLE_STOCKS_BASIC = 'stock_basic_list'
DownloadDir = os.path.pardir + '/stockdata/' # os.path.pardir: 上级目录
# 补全股票代码(6位股票代码)
# input: int or string
# output: string
def getSixDigitalStockCode(code):
strZero = ''
for i in range(len(str(code)), 6):
strZero += '0'
return strZero + str(code)
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在神经网络模型搭建中,“最后一层是否添加激活函数”是新手常困惑的关键问题——有人照搬中间层的ReLU激活,导致回归任务输出异 ...
2025-12-05在机器学习落地过程中,“模型准确率高但不可解释”“面对数据噪声就失效”是两大核心痛点——金融风控模型若无法解释决策依据, ...
2025-12-05在CDA(Certified Data Analyst)数据分析师的能力模型中,“指标计算”是基础技能,而“指标体系搭建”则是区分新手与资深分析 ...
2025-12-05在回归分析的结果解读中,R方(决定系数)是衡量模型拟合效果的核心指标——它代表因变量的变异中能被自变量解释的比例,取值通 ...
2025-12-04在城市规划、物流配送、文旅分析等场景中,经纬度热力图是解读空间数据的核心工具——它能将零散的GPS坐标(如外卖订单地址、景 ...
2025-12-04在CDA(Certified Data Analyst)数据分析师的指标体系中,“通用指标”与“场景指标”并非相互割裂的两个部分,而是支撑业务分 ...
2025-12-04每到“双十一”,电商平台的销售额会迎来爆发式增长;每逢冬季,北方的天然气消耗量会显著上升;每月的10号左右,工资发放会带动 ...
2025-12-03随着数字化转型的深入,企业面临的数据量呈指数级增长——电商的用户行为日志、物联网的传感器数据、社交平台的图文视频等,这些 ...
2025-12-03在CDA(Certified Data Analyst)数据分析师的工作体系中,“指标”是贯穿始终的核心载体——从“销售额环比增长15%”的业务结论 ...
2025-12-03在神经网络训练中,损失函数的数值变化常被视为模型训练效果的“核心仪表盘”——初学者盯着屏幕上不断下降的损失值满心欢喜,却 ...
2025-12-02在CDA(Certified Data Analyst)数据分析师的日常工作中,“用部分数据推断整体情况”是高频需求——从10万条订单样本中判断全 ...
2025-12-02在数据预处理的纲量统一环节,标准化是消除量纲影响的核心手段——它将不同量级的特征(如“用户年龄”“消费金额”)转化为同一 ...
2025-12-02在数据驱动决策成为企业核心竞争力的今天,A/B测试已从“可选优化工具”升级为“必选验证体系”。它通过控制变量法构建“平行实 ...
2025-12-01在时间序列预测任务中,LSTM(长短期记忆网络)凭借对时序依赖关系的捕捉能力成为主流模型。但很多开发者在实操中会遇到困惑:用 ...
2025-12-01引言:数据时代的“透视镜”与“掘金者” 在数字经济浪潮下,数据已成为企业决策的核心资产,而CDA数据分析师正是挖掘数据价值的 ...
2025-12-01数据分析师的日常,常始于一堆“毫无章法”的数据点:电商后台导出的零散订单记录、APP埋点收集的无序用户行为日志、传感器实时 ...
2025-11-28在MySQL数据库运维中,“query end”是查询执行生命周期的收尾阶段,理论上耗时极短——主要完成结果集封装、资源释放、事务状态 ...
2025-11-28在CDA(Certified Data Analyst)数据分析师的工具包中,透视分析方法是处理表结构数据的“瑞士军刀”——无需复杂代码,仅通过 ...
2025-11-28在统计分析中,数据的分布形态是决定“用什么方法分析、信什么结果”的底层逻辑——它如同数据的“性格”,直接影响着描述统计的 ...
2025-11-27在电商订单查询、用户信息导出等业务场景中,技术人员常面临一个选择:是一次性查询500条数据,还是分5次每次查询100条?这个问 ...
2025-11-27