2025年4月5日 星期六 乙巳(蛇)年 正月初六 设为首页 加入收藏
rss
您当前的位置:首页 > 计算机 > 编程开发 > Python

Python 金融教程

时间:12-14来源:作者:点击数:11

一、入门和获取股票数据

您好,欢迎来到 Python 金融系列教程。在本系列中,我们将使用 Pandas 框架来介绍将金融(股票)数据导入 Python 的基础知识。从这里开始,我们将操纵数据,试图搞出一些公司的投资系统,应用一些机器学习,甚至是一些深度学习,然后学习如何回溯测试一个策略。我假设你知道 Python 基础。如果您不确定,请点击基础链接,查看系列中的一些主题,并进行判断。如果在任何时候你卡在这个系列中,或者对某个主题或概念感到困惑,请随时寻求帮助,我将尽我所能提供帮助。

我被问到的一个常见问题是,我是否使用这些技术投资或交易获利。我主要是为了娱乐,并且练习数据分析技巧而玩财务数据,但实际上这也影响了我今天的投资决策。在写这篇文章的时候,我并没有用编程来进行实时算法交易,但是我已经有了实际的盈利,但是在算法交易方面还有很多工作要做。最后,如何操作和分析财务数据,以及如何测试交易状态的知识已经为我节省了大量的金钱。

这里提出的策略都不会使你成为一个超富有的人。如果他们愿意,我可能会把它们留给自己!然而,知识本身可以为你节省金钱,甚至可以使你赚钱。

好吧,让我们开始吧。首先,我正在使用 Python 3.5,但你应该能够获取更高版本。我会假设你已经安装了Python。如果你没有 64 位的 Python,但有 64 位的操作系统,去获取 64 位的 Python,稍后会帮助你。如果你使用的是 32 位操作系统,那么我对你的情况感到抱歉,不过你应该没问题。

用于启动的所需模块:

  1. NumPy
  2. Matplotlib
  3. Pandas
  4. Pandas-datareader
  5. BeautifulSoup4
  6. scikit-learn / sklearn

这些是现在做的,我们会在其他模块出现时处理它们。 首先,让我们介绍一下如何使用 pandas,matplotlib 和 Python 处理股票数据。

如果您想了解 Matplotlib 的更多信息,请查看 Matplotlib 数据可视化系列教程。

如果您想了解 Pandas 的更多信息,请查看 Pandas 数据分析系列教程。

首先,我们将执行以下导入:

  • import datetime as dt
  • import matplotlib.pyplot as plt
  • from matplotlib import style
  • import pandas as pd
  • import pandas_datareader.data as web

Datetime让我们很容易处理日期,matplotlib用于绘图,Pandas 用于操纵数据,pandas_datareader是我写这篇文章时最新的 Pandas io 库。

现在进行一些启动配置:

  • style.use('ggplot')
  • start = dt.datetime(2000, 1, 1)
  • end = dt.datetime(2016, 12, 31)

我们正在设置一个风格,所以我们的图表看起来并不糟糕。 在金融领域,即使你亏本,你的图表也是非常重要的。 接下来,我们设置一个开始和结束datetime对象,这将是我们要获取股票价格信息的日期范围。

现在,我们可以从这些数据中创建一个数据帧:

  • df = web.DataReader('TSLA', "yahoo", start, end)

如果您目前不熟悉DataFrame对象,可以查看 Pandas 的教程,或者只是将其想象为电子表格或存储器/ RAM 中的数据库表。 这只是一些行和列,并带有一个索引和列名乘。 在我们的这里,我们的索引可能是日期。 索引应该是与所有列相关的东西。

web.DataReader('TSLA', "yahoo", start, end)这一行,使用pandas_datareader包,寻找股票代码TSLA(特斯拉),从 yahoo 获取信息,从我们选择的起始和结束日期起始或结束。 以防你不知道,股票是公司所有权的一部分,代码是用来在证券交易所引用公司的“符号”。 大多数代码是 1-4 个字母。

所以现在我们有一个Pandas.DataFrame对象,它包含特斯拉的股票交易信息。 让我们看看我们在这里有啥:

  • print(df.head())
  • Open High Low Close Volume Adj Close
  • Date
  • 2010-06-29 19.000000 25.00 17.540001 23.889999 18766300 23.889999
  • 2010-06-30 25.790001 30.42 23.299999 23.830000 17187100 23.830000
  • 2010-07-01 25.000000 25.92 20.270000 21.959999 8218800 21.959999
  • 2010-07-02 23.000000 23.10 18.709999 19.200001 5139800 19.200001
  • 2010-07-06 20.000000 20.00 15.830000 16.110001 6866900 16.110001

.head()是可以用Pandas DataFrames做的事情,它会输出前n行​​,其中n是你传递的可选参数。如果不传递参数,则默认值为 5。我们绝对会使用.head()来快速浏览一下我们的数据,以确保我们在正路上。看起来很棒!

以防你不知道:

  • 开盘价 - 当股市开盘交易时,一股的价格是多少?
  • 最高价 - 在交易日的过程中,那一天的最高价是多少?
  • 最低价 - 在交易日的过程中,那一天的最低价是多少?
  • 收盘价 - 当交易日结束时,最终的价格是多少?
  • 成交量 - 那一天有多少股交易?

调整收盘价 - 这一个稍微复杂一些,但是随着时间的推移,公司可能决定做一个叫做股票拆分的事情。例如,苹果一旦股价超过 1000 美元就做了一次。由于在大多数情况下,人们不能购买股票的一小部分,股票价格 1000 美元相当限制投资者。公司可以做股票拆分,他们说每股现在是 2 股,价格是一半。任何人如果以 1,000 美元买入 1 股苹果股份,在拆分之后,苹果的股票翻倍,他们将拥有 2 股苹果(AAPL),每股价值 500 美元。调整收盘价是有帮助的,因为它解释了未来的股票分割,并给出分割的相对价格。出于这个原因,调整价格是你最有可能处理的价格。

二、处理数据和绘图

欢迎阅读 Python 金融系列教程的第 2 部分。 在本教程中,我们将使用我们的股票数据进一步拆分一些基本的数据操作和可视化。 我们将使用的起始代码(在前面的教程中已经介绍过)是:

  • import datetime as dt
  • import matplotlib.pyplot as plt
  • from matplotlib import style
  • import pandas as pd
  • import pandas_datareader.data as web
  • style.use('ggplot')
  • start = dt.datetime(2000,1,1)
  • end = dt.datetime(2016,12,31)
  • df = web.DataReader('TSLA', 'yahoo', start, end)

我们可以用这些DataFrame做些什么? 首先,我们可以很容易地将它们保存到各种数据类型中。 一个选项是csv

  • df.to_csv('TSLA.csv')

我们也可以将数据从 CSV 文件读取到DataFrame中,而不是将数据从 Yahoo 财经 API 读取到DataFrame中:

  • df = pd.read_csv('tsla.csv', parse_dates=True, index_col=0)

现在,我们可以绘制它:

  • df.plot()
  • plt.show()

很酷,尽管我们真正能看到的唯一的东西就是成交量,因为它比股票价格大得多。 我们怎么可能仅仅绘制我们感兴趣的东西?

  • df['Adj Close'].plot()
  • plt.show()

你可以看到,你可以在DataFrame中引用特定的列,如:df['Adj Close'],但是你也可以一次引用多个,如下所示:

  • df[['High','Low']]

在下一个教程中,我们将介绍这些数据的一些基本操作,以及一些更基本的可视化。

三、基本的股票数据操作

欢迎阅读 Python 金融系列教程的第 3 部分。 在本教程中,我们将使用我们的股票数据进一步拆分一些基本的数据操作和可视化。 我们将要使用的起始代码(在前面的教程中已经介绍过)是:

  • import datetime as dt
  • import matplotlib.pyplot as plt
  • from matplotlib import style
  • import pandas as pd
  • import pandas_datareader.data as web
  • style.use('ggplot')
  • df = pd.read_csv('tsla.csv', parse_dates=True, index_col=0)

Pandas 模块配备了一堆可用的内置函数,以及创建自定义 Pandas 函数的方法。 稍后我们将介绍一些自定义函数,但现在让我们对这些数据执行一个非常常见的操作:移动均值。

简单移动均值的想法是选取时间窗口,并计算该窗口内的均值。 然后我们把这个窗口移动一个周期,然后再做一次。 在我们这里,我们将计算 100 天滚动均值。 因此,这将选取当前价格和过去 99 天的价格,加起来,除以 100,之后就是当前的 100 天移动均值。

然后我们把窗口移动一天,然后再做同样的事情。 在 Pandas 中这样做很简单:

  • df['100ma'] = df['Adj Close'].rolling(window=100).mean()

如果我们有一列叫做100ma,执行df['100ma']允许我们重新定义包含现有列的内容,否则创建一个新列,这就是我们在这里做的。 我们说df['100ma']列等同于应用滚动方法的df['Adj Close']列,窗口为 100,这个窗口将是mean()(均值)操作。

现在,我们执行:

  • print(df.head())
  • Date Open High Low Close Volume \
  • Date
  • 2010-06-29 2010-06-29 19.000000 25.00 17.540001 23.889999 18766300
  • 2010-06-30 2010-06-30 25.790001 30.42 23.299999 23.830000 17187100
  • 2010-07-01 2010-07-01 25.000000 25.92 20.270000 21.959999 8218800
  • 2010-07-02 2010-07-02 23.000000 23.10 18.709999 19.200001 5139800
  • 2010-07-06 2010-07-06 20.000000 20.00 15.830000 16.110001 6866900
  • Adj Close 100ma
  • Date
  • 2010-06-29 23.889999 NaN
  • 2010-06-30 23.830000 NaN
  • 2010-07-01 21.959999 NaN
  • 2010-07-02 19.200001 NaN
  • 2010-07-06 16.110001 NaN

发生了什么? 在100ma列中,我们只看到NaN。 我们选择了 100 移动均值,理论上需要 100 个之前的数据点进行计算,所以我们在这里没有任何前 100 行的数据。 NaN的意思是“不是一个数字”。 有了 Pandas,你可以决定对缺失数据做很多事情,但现在,我们只需要改变最小周期参数:

  • Date Open High Low Close Volume \
  • Date
  • 2010-06-29 2010-06-29 19.000000 25.00 17.540001 23.889999 18766300
  • 2010-06-30 2010-06-30 25.790001 30.42 23.299999 23.830000 17187100
  • 2010-07-01 2010-07-01 25.000000 25.92 20.270000 21.959999 8218800
  • 2010-07-02 2010-07-02 23.000000 23.10 18.709999 19.200001 5139800
  • 2010-07-06 2010-07-06 20.000000 20.00 15.830000 16.110001 6866900
  • Adj Close 100ma
  • Date
  • 2010-06-29 23.889999 23.889999
  • 2010-06-30 23.830000 23.860000
  • 2010-07-01 21.959999 23.226666
  • 2010-07-02 19.200001 22.220000
  • 2010-07-06 16.110001 20.998000

好吧,可以用,现在我们想看看它! 但是我们已经看到了简单的图表,那么稍微复杂一些呢?

  • ax1 = plt.subplot2grid((6,1), (0,0), rowspan=5, colspan=1)
  • ax2 = plt.subplot2grid((6,1), (5,0), rowspan=1, colspan=1,sharex=ax1)

如果你想了解subplot2grid的更多信息,请查看 Matplotlib 教程的子图部分。

基本上,我们说我们想要创建两个子图,而这两个子图都在6x1的网格中,我们有 6 行 1 列。 第一个子图从该网格上的(0,0)开始,跨越 5 行,并跨越 1 列。 下一个子图也在6x1网格上,但是从(5,0)开始,跨越 1 行和 1 列。 第二个子图带有sharex = ax1,这意味着ax2x轴将始终与ax1x轴对齐,反之亦然。 现在我们只是绘制我们的图形:

  • ax1.plot(df.index, df['Adj Close'])
  • ax1.plot(df.index, df['100ma'])
  • ax2.bar(df.index, df['Volume'])
  • plt.show()

在上面,我们在第一个子图中绘制了的close100ma,第二个图中绘制volume。 我们的结果:

到这里的完整代码:

  • import datetime as dt
  • import matplotlib.pyplot as plt
  • from matplotlib import style
  • import pandas as pd
  • import pandas_datareader.data as web
  • style.use('ggplot')
  • df = pd.read_csv('tsla.csv', parse_dates=True, index_col=0)
  • df['100ma'] = df['Adj Close'].rolling(window=100, min_periods=0).mean()
  • print(df.head())
  • ax1 = plt.subplot2grid((6,1), (0,0), rowspan=5, colspan=1)
  • ax2 = plt.subplot2grid((6,1), (5,0), rowspan=1, colspan=1, sharex=ax1)
  • ax1.plot(df.index, df['Adj Close'])
  • ax1.plot(df.index, df['100ma'])
  • ax2.bar(df.index, df['Volume'])
  • plt.show()

在接下来的几个教程中,我们将学习如何通过 Pandas 数据重采样制作烛台图,并学习更多使用 Matplotlib 的知识。

四、更多股票操作

欢迎阅读 Python 金融教程系列的第 4 部分。 在本教程中,我们将基于Adj Close列创建烛台/ OHLC 图,我将介绍重新采样和其他一些数据可视化概念。

名为烛台图的 OHLC 图是一个图表,将开盘价,最高价,最低价和收盘价都汇总成很好的格式。 并且它使用漂亮的颜色,还记得我告诉你有关漂亮的图表的事情嘛?

之前的教程中,目前为止的起始代码:

  • import datetime as dt
  • import matplotlib.pyplot as plt
  • from matplotlib import style
  • import pandas as pd
  • import pandas_datareader.data as web
  • style.use('ggplot')
  • df = pd.read_csv('tsla.csv', parse_dates=True, index_col=0)

不幸的是,即使创建 OHLC 数据是这样,Pandas 没有内置制作烛台图的功能。 有一天,我确信这个图表类型将会可用,但是,现在不是。 没关系,我们会实现它! 首先,我们需要做两个新的导入:

  • from matplotlib.finance import candlestick_ohlc
  • import matplotlib.dates as mdates

第一个导入是来自 matplotlib 的 OHLC 图形类型,第二个导入是特殊的mdates类型,它在对接中是个麻烦,但这是 matplotlib 图形的日期类型。 Pandas 自动为你处理,但正如我所说,我们没有那么方便的烛台。

首先,我们需要适当的 OHLC 数据。 我们目前的数据确实有 OHLC 值,除非我错了,特斯拉从未有过拆分,但是你不会总是这么幸运。 因此,我们将创建我们自己的 OHLC 数据,这也将使我们能够展示来自 Pandas 的另一个数据转换:

  • df_ohlc = df['Adj Close'].resample('10D').ohlc()

我们在这里所做的是,创建一个新的数据帧,基于df ['Adj Close']列,使用 10 天窗口重采样,并且重采样是一个 OHLC(开高低关)。我们也可以用.mean().sum()计算 10 天的均值,或 10 天的总和。请记住,这 10 天的均值是 10 天均值,而不是滚动均值。由于我们的数据是每日数据,重采样到 10 天的数据有效地缩小了我们的数据大小。这就是你规范多个数据集的方式。有时候,您可能会在每个月的第一天记录一次数据,在每个月末记录其他数据,最后每周记录一些数据。您可以将该数据帧重新采样到月底,并有效地规范化所有东西!这是一个更先进的 Padas 功能,如果你喜欢,你可以更多了解 Pandas 的序列。

我们想要绘制烛台数据以及成交量数据。我们不需要将成交量数据重采样,但是我们应该这样做,因为与我们的10D价格数据相比,这个数据太细致了。

  • df_volume = df['Volume'].resample('10D').sum()

我们在这里使用sum,因为我们真的想知道在这 10 天内交易总量,但也可以用平均值。 现在如果我们这样做:

  • print(df_ohlc.head())
  • open high low close
  • Date
  • 2010-06-29 23.889999 23.889999 15.800000 17.459999
  • 2010-07-09 17.400000 20.639999 17.049999 20.639999
  • 2010-07-19 21.910000 21.910000 20.219999 20.719999
  • 2010-07-29 20.350000 21.950001 19.590000 19.590000
  • 2010-08-08 19.600000 19.600000 17.600000 19.150000

这是预期,但是,我们现在要将这些信息移动到 matplotlib,并将日期转换为mdates版本。 由于我们只是要在 Matplotlib 中绘制列,我们实际上不希望日期成为索引,所以我们可以这样做:

  • df_ohlc = df_ohlc.reset_index()

现在dates只是一个普通的列。 接下来,我们要转换它:

  • df_ohlc['Date'] = df_ohlc['Date'].map(mdates.date2num)

现在我们打算配置图形:

  • fig = plt.figure()
  • ax1 = plt.subplot2grid((6,1), (0,0), rowspan=5, colspan=1)
  • ax2 = plt.subplot2grid((6,1), (5,0), rowspan=1, colspan=1,sharex=ax1)
  • ax1.xaxis_date()

除了ax1.xaxis_date()之外,你已经看到了一切。 这对我们来说,是把轴从原始的mdate数字转换成日期。

现在我们可以绘制烛台图:

  • candlestick_ohlc(ax1, df_ohlc.values, width=2, colorup='g')

之后是成交量:

  • ax2.fill_between(df_volume.index.map(mdates.date2num),df_volume.values,0)

fill_between函数将绘制xy,然后填充之间的内容。 在我们的例子中,我们选择 0。

  • plt.show()

这个教程的完整代码:

  • import datetime as dt
  • import matplotlib.pyplot as plt
  • from matplotlib import style
  • from matplotlib.finance import candlestick_ohlc
  • import matplotlib.dates as mdates
  • import pandas as pd
  • import pandas_datareader.data as web
  • style.use('ggplot')
  • df = pd.read_csv('tsla.csv', parse_dates=True, index_col=0)
  • df_ohlc = df['Adj Close'].resample('10D').ohlc()
  • df_volume = df['Volume'].resample('10D').sum()
  • df_ohlc.reset_index(inplace=True)
  • df_ohlc['Date'] = df_ohlc['Date'].map(mdates.date2num)
  • ax1 = plt.subplot2grid((6,1), (0,0), rowspan=5, colspan=1)
  • ax2 = plt.subplot2grid((6,1), (5,0), rowspan=1, colspan=1, sharex=ax1)
  • ax1.xaxis_date()
  • candlestick_ohlc(ax1, df_ohlc.values, width=5, colorup='g')
  • ax2.fill_between(df_volume.index.map(mdates.date2num), df_volume.values, 0)
  • plt.show()

在接下来的几个教程中,我们将把可视化留到后面一些,然后专注于获取并处理数据。

五、自动获取 SP500 列表

欢迎阅读 Python 金融教程系列的第 5 部分。在本教程和接下来的几章中,我们将着手研究如何能够获取大量价格信息,以及如何一次处理所有这些数据。

首先,我们需要一个公司名单。我可以给你一个清单,但实际上获得股票清单可能只是你可能遇到的许多挑战之一。在我们的案例中,我们需要一个 SP500 公司的 Python 列表。

无论您是在寻找道琼斯公司,SP500 指数还是罗素 3000 指数,这些公司的信息都有可能在某个地方发布。您需要确保它是最新的,但是它可能还不是完美的格式。在我们的例子中,我们将从维基百科获取这个列表:http://en.wikipedia.org/wiki/List_of_S%26P_500_companies

维基百科中的代码/符号组织在一张表里面。为了解决这个问题,我们将使用 HTML 解析库,Beautiful Soup。如果你想了解更多,我有一个使用 Beautiful Soup 进行网页抓取的简短的四部分教程。

首先,我们从一些导入开始:

  • import bs4 as bs
  • import pickle
  • import requests

bs4是 Beautiful Soup,pickle是为了我们可以很容易保存这个公司的名单,而不是每次我们运行时都访问维基百科(但要记住,你需要及时更新这个名单!),我们将使用 requests从维基百科页面获取源代码。

这是我们函数的开始:

  • def save_sp500_tickers():
  • resp = requests.get('http://en.wikipedia.org/wiki/List_of_S%26P_500_companies')
  • soup = bs.BeautifulSoup(resp.text, 'lxml')
  • table = soup.find('table', {'class': 'wikitable sortable'})

首先,我们访问维基百科页面,并获得响应,其中包含我们的源代码。 为了处理源代码,我们想要访问.text属性,我们使用 BeautifulSoup 将其转为soup。 如果您不熟悉 BeautifulSoup 为您所做的工作,它基本上将源代码转换为一个 BeautifulSoup 对象,马上就可以看做一个典型的 Python 对象。

有一次维基百科试图拒绝 Python 的访问。 目前,在我写这篇文章的时候,代码不改变协议头也能工作。 如果您发现原始源代码(resp.text)似乎不返回相同的页面,像您在家用计算机上看到的那样,请添加以下内容并更改resp var代码:

  • headers = {'User-Agent': 'Mozilla/5.0 (X11; Linux i686) AppleWebKit/537.17 (KHTML, like Gecko) Chrome/24.0.1312.27 Safari/537.17'}
  • resp = requests.get('http://en.wikipedia.org/wiki/List_of_S%26P_500_companies',
  • headers=headers)

一旦我们有了soup,我们可以通过简单地搜索wikitable sortable类来找到股票数据表。 我知道指定这个表的唯一原因是,因为我之前在浏览器中查看了源代码。 可能会有这样的情况,你想解析一个不同的网站的股票列表,也许它是在一个表中,也可能是一个列表,或者可能是一些div标签。 这都是一个非常具体的解决方案。 从这里开始,我们仅仅遍历表格:

  • tickers = []
  • for row in table.findAll('tr')[1:]:
  • ticker = row.findAll('td')[0].text
  • tickers.append(ticker)

对于每一行,在标题行之后(这就是为什么我们要执行[1:]),我们说股票是“表格数据”(td),我们抓取它的.text, 将此代码添加到我们的列表中。

现在,如果我们可以保存这个列表,那就好了。 我们将使用pickle模块来为我们序列化 Python 对象。

  • with open("sp500tickers.pickle","wb") as f:
  • pickle.dump(tickers,f)
  • return tickers

我们希望继续并保存它,因此我们无需每天多次请求维基百科。 在任何时候,我们可以更新这个清单,或者我们可以编程一个月检查一次...等等。

目前为止的完整代码:

  • import bs4 as bs
  • import pickle
  • import requests
  • def save_sp500_tickers():
  • resp = requests.get('http://en.wikipedia.org/wiki/List_of_S%26P_500_companies')
  • soup = bs.BeautifulSoup(resp.text, 'lxml')
  • table = soup.find('table', {'class': 'wikitable sortable'})
  • tickers = []
  • for row in table.findAll('tr')[1:]:
  • ticker = row.findAll('td')[0].text
  • tickers.append(ticker)
  • with open("sp500tickers.pickle","wb") as f:
  • pickle.dump(tickers,f)
  • return tickers
  • save_sp500_tickers()

现在我们已经知道了代码,我们已经准备好提取所有的信息,这是我们将在下一个教程中做的事情。

六、获取 SP500 中所有公司的价格数据

欢迎阅读 Python 金融教程系列的第 6 部分。 在之前的 Python 教程中,我们介绍了如何获取我们感兴趣的公司名单(在我们的案例中是 SP500),现在我们将获取所有这些公司的股票价格数据。

目前为止的代码:

  • def save_sp500_tickers():
  • resp = requests.get('http://en.wikipedia.org/wiki/List_of_S%26P_500_companies')
  • soup = bs.BeautifulSoup(resp.text, 'lxml')
  • table = soup.find('table', {'class': 'wikitable sortable'})
  • tickers = []
  • for row in table.findAll('tr')[1:]:
  • ticker = row.findAll('td')[0].text
  • tickers.append(ticker)
  • with open("sp500tickers.pickle","wb") as f:
  • pickle.dump(tickers,f)
  • return tickers

我们打算添加一些新的导入:

  • import datetime as dt
  • import os
  • import pandas as pd
  • import pandas_datareader.data as web

我们将使用datetime为 Pandas datareader指定日期,os用于检查并创建目录。 你已经知道 Pandas 干什么了!

我们的新函数的开始:

  • def get_data_from_yahoo(reload_sp500=False):
  • if reload_sp500:
  • tickers = save_sp500_tickers()
  • else:
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)

在这里,我将展示一个简单示例,可以处理是否重新加载 SP500 列表。 如果我们让它这样,这个程序将重新抓取 SP500,否则将只使用我们的pickle。 现在我们准备抓取数据。

现在我们需要决定我们要处理的数据。 我倾向于尝试解析网站一次,并在本地存储数据。

我不会事先知道我可能用数据做的所有事情,但是我知道如果我不止一次地抓取它,我还可以保存它(除非它是一个巨大的数据集,但不是)。

因此,对于每一种股票,我们抓取所有雅虎可以返回给我们的东西,并保存下来。 为此,我们将创建一个新目录,并在那里存储每个公司的股票数据。

首先,我们需要这个初始目录:

  • if not os.path.exists('stock_dfs'):
  • os.makedirs('stock_dfs')

您可以将这些数据集存储在与您的脚本相同的目录中,但在我看来,这会变得非常混乱。 现在我们准备好提取数据了。 你已经知道如何实现,我们在第一个教程中完成了!

  • start = dt.datetime(2000, 1, 1)
  • end = dt.datetime(2016, 12, 31)
  • for ticker in tickers:
  • if not os.path.exists('stock_dfs/{}.csv'.format(ticker)):
  • df = web.DataReader(ticker, "yahoo", start, end)
  • df.to_csv('stock_dfs/{}.csv'.format(ticker))
  • else:
  • print('Already have {}'.format(ticker))

你可能想要为这个函数传入force_data_update参数,因为现在它不会重新提取它已经访问的数据。 由于我们正在提取每日数据,所以您最好至少重新提取最新的数据。 也就是说,如果是这样的话,最好对每个公司使用数据库而不是表格,然后从 Yahoo 数据库中提取最新的值。 但是现在我们会保持简单!

目前为止的代码:

  • import bs4 as bs
  • import datetime as dt
  • import os
  • import pandas as pd
  • import pandas_datareader.data as web
  • import pickle
  • import requests
  • def save_sp500_tickers():
  • resp = requests.get('http://en.wikipedia.org/wiki/List_of_S%26P_500_companies')
  • soup = bs.BeautifulSoup(resp.text, 'lxml')
  • table = soup.find('table', {'class': 'wikitable sortable'})
  • tickers = []
  • for row in table.findAll('tr')[1:]:
  • ticker = row.findAll('td')[0].text
  • tickers.append(ticker)
  • with open("sp500tickers.pickle","wb") as f:
  • pickle.dump(tickers,f)
  • return tickers
  • #save_sp500_tickers()
  • def get_data_from_yahoo(reload_sp500=False):
  • if reload_sp500:
  • tickers = save_sp500_tickers()
  • else:
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • if not os.path.exists('stock_dfs'):
  • os.makedirs('stock_dfs')
  • start = dt.datetime(2000, 1, 1)
  • end = dt.datetime(2016, 12, 31)
  • for ticker in tickers:
  • # just in case your connection breaks, we'd like to save our progress!
  • if not os.path.exists('stock_dfs/{}.csv'.format(ticker)):
  • df = web.DataReader(ticker, "yahoo", start, end)
  • df.to_csv('stock_dfs/{}.csv'.format(ticker))
  • else:
  • print('Already have {}'.format(ticker))
  • get_data_from_yahoo()

运行它。如果雅虎阻拦你的话,你可能想添加import timetime.sleep(0.5)或一些东西。 在我写这篇文章的时候,雅虎并没有阻拦我,我能够毫无问题地完成这个任务。 但是这可能需要你一段时间,尤其取决于你的机器。 好消息是,我们不需要再做一遍! 同样在实践中,因为这是每日数据,但是您可能每天都执行一次。

另外,如果你的互联网速度很慢,你不需要获取所有的代码,即使只有 10 个就足够了,所以你可以用ticker [:10]或者类似的东西来加快速度。

在下一个教程中,一旦你下载了数据,我们将把我们感兴趣的数据编译成一个大的 PandasDataFrame

七、将所有 SP500 价格组合到一个DataFrame

欢迎阅读 Python 金融系列教程的第 7 部分。 在之前的教程中,我们抓取了整个 SP500 公司的雅虎财经数据。 在本教程中,我们将把这些数据放在一个DataFrame中。

目前为止的代码:

  • import bs4 as bs
  • import datetime as dt
  • import os
  • import pandas as pd
  • import pandas_datareader.data as web
  • import pickle
  • import requests
  • def save_sp500_tickers():
  • resp = requests.get('http://en.wikipedia.org/wiki/List_of_S%26P_500_companies')
  • soup = bs.BeautifulSoup(resp.text, 'lxml')
  • table = soup.find('table', {'class': 'wikitable sortable'})
  • tickers = []
  • for row in table.findAll('tr')[1:]:
  • ticker = row.findAll('td')[0].text
  • tickers.append(ticker)
  • with open("sp500tickers.pickle","wb") as f:
  • pickle.dump(tickers,f)
  • return tickers
  • def get_data_from_yahoo(reload_sp500=False):
  • if reload_sp500:
  • tickers = save_sp500_tickers()
  • else:
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • if not os.path.exists('stock_dfs'):
  • os.makedirs('stock_dfs')
  • start = dt.datetime(2000, 1, 1)
  • end = dt.datetime(2016, 12, 31)
  • for ticker in tickers:
  • # just in case your connection breaks, we'd like to save our progress!
  • if not os.path.exists('stock_dfs/{}.csv'.format(ticker)):
  • df = web.DataReader(ticker, "yahoo", start, end)
  • df.to_csv('stock_dfs/{}.csv'.format(ticker))
  • else:
  • print('Already have {}'.format(ticker))

虽然我们拥有了所有的数据,但是我们可能要一起评估数据。 为此,我们将把所有的股票数据组合在一起。 目前的每个股票文件都带有:开盘价,最高价,最低价,收盘价,成交量和调整收盘价。 至少在最开始,我们现在几乎只对调整收盘价感兴趣。

  • def compile_data():
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • main_df = pd.DataFrame()

首先,我们获取我们以前生成的代码,并从一个叫做main_df的空DataFrame开始。 现在,我们准备读取每个股票的数据帧:

  • for count,ticker in enumerate(tickers):
  • df = pd.read_csv('stock_dfs/{}.csv'.format(ticker))
  • df.set_index('Date', inplace=True)

您不需要在这里使用 Python 的enumerate,我只是使用它,以便知道我们在读取所有数据的过程中的哪里。 你可以迭代代码。 到了这里,我们可以使用有趣的数据来生成额外的列,如:

  • df['{}_HL_pct_diff'.format(ticker)] = (df['High'] - df['Low']) / df['Low']
  • df['{}_daily_pct_chng'.format(ticker)] = (df['Close'] - df['Open']) / df['Open']

但是现在,我们不会因此而烦恼。 只要知道这可能是一条遵循之路。 相反,我们真的只是对Adj Close列感兴趣:

  • df.rename(columns={'Adj Close':ticker}, inplace=True)
  • df.drop(['Open','High','Low','Close','Volume'],1,inplace=True)

现在我们已经得到了这一列(或者像上面那样的额外列,但是请记住,在这个例子中,我们没有计算HL_pct_diffdaily_pct_chng)。 请注意,我们已将Adj Close列重命名为任何股票名称。 我们开始构建共享数据帧:

  • if main_df.empty:
  • main_df = df
  • else:
  • main_df = main_df.join(df, how='outer')

如果main_df中没有任何内容,那么我们将从当前的df开始,否则我们将使用 Pandas 的join

仍然在这个for循环中,我们将添加两行:

  • if count % 10 == 0:
  • print(count)

这将只输出当前的股票数量,如果它可以被 10 整除。count % 10计算被除数除以 10 的余数。所以,如果我们计算count % 10 == 0,并且如果当前计数能被 10 整除,余数为零,我们只有看到if语句为真。

我们完成了for循环的时候:

  • print(main_df.head())
  • main_df.to_csv('sp500_joined_closes.csv')

目前为止的函数及其调用:

  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • main_df = pd.DataFrame()
  • for count,ticker in enumerate(tickers):
  • df = pd.read_csv('stock_dfs/{}.csv'.format(ticker))
  • df.set_index('Date', inplace=True)
  • df.rename(columns={'Adj Close':ticker}, inplace=True)
  • df.drop(['Open','High','Low','Close','Volume'],1,inplace=True)
  • if main_df.empty:
  • main_df = df
  • else:
  • main_df = main_df.join(df, how='outer')
  • if count % 10 == 0:
  • print(count)
  • print(main_df.head())
  • main_df.to_csv('sp500_joined_closes.csv')
  • compile_data()

目前为止的完整代码:

  • import bs4 as bs
  • import datetime as dt
  • import os
  • import pandas as pd
  • import pandas_datareader.data as web
  • import pickle
  • import requests
  • def save_sp500_tickers():
  • resp = requests.get('http://en.wikipedia.org/wiki/List_of_S%26P_500_companies')
  • soup = bs.BeautifulSoup(resp.text, 'lxml')
  • table = soup.find('table', {'class': 'wikitable sortable'})
  • tickers = []
  • for row in table.findAll('tr')[1:]:
  • ticker = row.findAll('td')[0].text
  • tickers.append(ticker)
  • with open("sp500tickers.pickle","wb") as f:
  • pickle.dump(tickers,f)
  • return tickers
  • def get_data_from_yahoo(reload_sp500=False):
  • if reload_sp500:
  • tickers = save_sp500_tickers()
  • else:
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • if not os.path.exists('stock_dfs'):
  • os.makedirs('stock_dfs')
  • start = dt.datetime(2000, 1, 1)
  • end = dt.datetime(2016, 12, 31)
  • for ticker in tickers:
  • # just in case your connection breaks, we'd like to save our progress!
  • if not os.path.exists('stock_dfs/{}.csv'.format(ticker)):
  • df = web.DataReader(ticker, "yahoo", start, end)
  • df.to_csv('stock_dfs/{}.csv'.format(ticker))
  • else:
  • print('Already have {}'.format(ticker))
  • def compile_data():
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • main_df = pd.DataFrame()
  • for count,ticker in enumerate(tickers):
  • df = pd.read_csv('stock_dfs/{}.csv'.format(ticker))
  • df.set_index('Date', inplace=True)
  • df.rename(columns={'Adj Close':ticker}, inplace=True)
  • df.drop(['Open','High','Low','Close','Volume'],1,inplace=True)
  • if main_df.empty:
  • main_df = df
  • else:
  • main_df = main_df.join(df, how='outer')
  • if count % 10 == 0:
  • print(count)
  • print(main_df.head())
  • main_df.to_csv('sp500_joined_closes.csv')
  • compile_data()

在下一个教程中,我们将尝试查看,是否可以快速找到数据中的任何关系。

八、创建大型 SP500 公司相关性表

欢迎阅读 Python 金融教程系列的第 8 部分。 在之前的教程中,我们展示了如何组合 SP500 公司的所有每日价格数据。

在本教程中,我们将看看是否可以找到任何有趣的关联数据。 为此,我们希望将其可视化,因为它是大量数据。 我们将使用 Matplotlib,以及 Numpy。

目前为止的代码:

  • import bs4 as bs
  • import datetime as dt
  • import os
  • import pandas as pd
  • import pandas_datareader.data as web
  • import pickle
  • import requests
  • def save_sp500_tickers():
  • resp = requests.get('http://en.wikipedia.org/wiki/List_of_S%26P_500_companies')
  • soup = bs.BeautifulSoup(resp.text, 'lxml')
  • table = soup.find('table', {'class': 'wikitable sortable'})
  • tickers = []
  • for row in table.findAll('tr')[1:]:
  • ticker = row.findAll('td')[0].text
  • tickers.append(ticker)
  • with open("sp500tickers.pickle","wb") as f:
  • pickle.dump(tickers,f)
  • return tickers
  • def get_data_from_yahoo(reload_sp500=False):
  • if reload_sp500:
  • tickers = save_sp500_tickers()
  • else:
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • if not os.path.exists('stock_dfs'):
  • os.makedirs('stock_dfs')
  • start = dt.datetime(2000, 1, 1)
  • end = dt.datetime(2016, 12, 31)
  • for ticker in tickers:
  • # just in case your connection breaks, we'd like to save our progress!
  • if not os.path.exists('stock_dfs/{}.csv'.format(ticker)):
  • df = web.DataReader(ticker, "yahoo", start, end)
  • df.to_csv('stock_dfs/{}.csv'.format(ticker))
  • else:
  • print('Already have {}'.format(ticker))
  • def compile_data():
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • main_df = pd.DataFrame()
  • for count,ticker in enumerate(tickers):
  • df = pd.read_csv('stock_dfs/{}.csv'.format(ticker))
  • df.set_index('Date', inplace=True)
  • df.rename(columns={'Adj Close':ticker}, inplace=True)
  • df.drop(['Open','High','Low','Close','Volume'],1,inplace=True)
  • if main_df.empty:
  • main_df = df
  • else:
  • main_df = main_df.join(df, how='outer')
  • if count % 10 == 0:
  • print(count)
  • print(main_df.head())
  • main_df.to_csv('sp500_joined_closes.csv')
  • compile_data()

现在我们打算添加下列导入并设置样式:

  • import matplotlib.pyplot as plt
  • from matplotlib import style
  • import numpy as np
  • style.use('ggplot')

下面我们开始构建 Matplotlib 函数:

  • def visualize_data():
  • df = pd.read_csv('sp500_joined_closes.csv')

到了这里,我们可以绘制任何公司:

  • df['AAPL'].plot()
  • plt.show()

...但是我们没有浏览所有东西,就绘制单个公司! 相反,让我们来看看所有这些公司的相关性。 在 Pandas 中建立相关性表实际上是非常简单的:

  • df_corr = df.corr()
  • print(df_corr.head())

这就是它了。.corr()会自动查看整个DataFrame,并确定每列与每列的相关性。 我已经看到付费的网站也把它做成服务。 所以,如果你需要一些副业的话,那么你可以用它!

我们当然可以保存这个,如果我们想要的话:

  • df_corr.to_csv('sp500corr.csv')

相反,我们要绘制它。 为此,我们要生成一个热力图。 Matplotlib 中没有内置超级简单的热力图,但我们有工具可以制作。 为此,首先我们需要实际的数据来绘制:

  • data1 = df_corr.values

这会给我们这些数值的 NumPy 数组,它们是相关性的值。 接下来,我们将构建我们的图形和坐标轴:

  • fig1 = plt.figure()
  • ax1 = fig1.add_subplot(111)

现在我们使用pcolor来绘制热力图:

  • heatmap1 = ax1.pcolor(data1, cmap=plt.cm.RdYlGn)

这个热力图使用一系列的颜色来制作,这些颜色可以是任何东西到任何东西的范围,颜色比例由我们使用的cmap生成。 你可以在这里找到颜色映射的所有选项。 我们将使用RdYlGn,它是一个颜色映射,低端为红色,中间为黄色,较高部分为绿色,这将负相关表示为红色,正相关为绿色,无关联为黄色。 我们将添加一个边栏,是个作为“比例尺”的颜色条:

  • fig1.colorbar(heatmap1)

接下来,我们将设置我们的xy轴刻度,以便我们知道哪个公司是哪个,因为现在我们只是绘制了数据:

  • ax1.set_xticks(np.arange(data1.shape[1]) + 0.5, minor=False)
  • ax1.set_yticks(np.arange(data1.shape[0]) + 0.5, minor=False)

这样做只是为我们创建刻度。 我们还没有任何标签。

现在我们添加:

  • ax1.invert_yaxis()
  • ax1.xaxis.tick_top()

这会翻转我们的yaxis,所以图形更容易阅读,因为xy之间会有一些空格。 一般而言,matplotlib 会在图的一端留下空间,因为这往往会使图更容易阅读,但在我们的情况下,却没有。 然后我们也把xaxis翻转到图的顶部,而不是传统的底部,同样使这个更像是相关表应该的样子。 现在我们实际上将把公司名称添加到当前没有名字的刻度中:

  • column_labels = df_corr.columns
  • row_labels = df_corr.index
  • ax1.set_xticklabels(column_labels)
  • ax1.set_yticklabels(row_labels)

在这里,我们可以使用两边完全相同的列表,因为column_labelsrow_lables应该是相同的列表。 但是,对于所有的热力图而言,这并不总是正确的,所以我决定将其展示为,数据帧的任何热力图的正确方法。 最后:

  • plt.xticks(rotation=90)
  • heatmap1.set_clim(-1,1)
  • plt.tight_layout()
  • #plt.savefig("correlations.png", dpi = (300))
  • plt.show()

我们旋转xticks,这实际上是代码本身,因为通常他们会超出区域。 我们在这里有超过 500 个标签,所以我们要将他们旋转 90 度,所以他们是垂直的。 这仍然是一个图表,它太大了而看不清所有东西,但没关系。 heatmap1.set_clim(-1,1)那一行只是告诉colormap,我们的范围将从-1变为正1。应该已经是这种情况了,但是我们想确定一下。 没有这一行,它应该仍然是你的数据集的最小值和最大值,所以它本来是非常接近的。

所以我们完成了! 到目前为止的函数:

  • def visualize_data():
  • df = pd.read_csv('sp500_joined_closes.csv')
  • #df['AAPL'].plot()
  • #plt.show()
  • df_corr = df.corr()
  • print(df_corr.head())
  • df_corr.to_csv('sp500corr.csv')
  • data1 = df_corr.values
  • fig1 = plt.figure()
  • ax1 = fig1.add_subplot(111)
  • heatmap1 = ax1.pcolor(data1, cmap=plt.cm.RdYlGn)
  • fig1.colorbar(heatmap1)
  • ax1.set_xticks(np.arange(data1.shape[1]) + 0.5, minor=False)
  • ax1.set_yticks(np.arange(data1.shape[0]) + 0.5, minor=False)
  • ax1.invert_yaxis()
  • ax1.xaxis.tick_top()
  • column_labels = df_corr.columns
  • row_labels = df_corr.index
  • ax1.set_xticklabels(column_labels)
  • ax1.set_yticklabels(row_labels)
  • plt.xticks(rotation=90)
  • heatmap1.set_clim(-1,1)
  • plt.tight_layout()
  • #plt.savefig("correlations.png", dpi = (300))
  • plt.show()
  • visualize_data()

以及目前为止的完整代码:

  • import bs4 as bs
  • import datetime as dt
  • import matplotlib.pyplot as plt
  • from matplotlib import style
  • import numpy as np
  • import os
  • import pandas as pd
  • import pandas_datareader.data as web
  • import pickle
  • import requests
  • style.use('ggplot')
  • def save_sp500_tickers():
  • resp = requests.get('http://en.wikipedia.org/wiki/List_of_S%26P_500_companies')
  • soup = bs.BeautifulSoup(resp.text, 'lxml')
  • table = soup.find('table', {'class': 'wikitable sortable'})
  • tickers = []
  • for row in table.findAll('tr')[1:]:
  • ticker = row.findAll('td')[0].text
  • tickers.append(ticker)
  • with open("sp500tickers.pickle","wb") as f:
  • pickle.dump(tickers,f)
  • return tickers
  • def get_data_from_yahoo(reload_sp500=False):
  • if reload_sp500:
  • tickers = save_sp500_tickers()
  • else:
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • if not os.path.exists('stock_dfs'):
  • os.makedirs('stock_dfs')
  • start = dt.datetime(2000, 1, 1)
  • end = dt.datetime(2016, 12, 31)
  • for ticker in tickers:
  • # just in case your connection breaks, we'd like to save our progress!
  • if not os.path.exists('stock_dfs/{}.csv'.format(ticker)):
  • df = web.DataReader(ticker, "yahoo", start, end)
  • df.to_csv('stock_dfs/{}.csv'.format(ticker))
  • else:
  • print('Already have {}'.format(ticker))
  • def compile_data():
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • main_df = pd.DataFrame()
  • for count,ticker in enumerate(tickers):
  • df = pd.read_csv('stock_dfs/{}.csv'.format(ticker))
  • df.set_index('Date', inplace=True)
  • df.rename(columns={'Adj Close':ticker}, inplace=True)
  • df.drop(['Open','High','Low','Close','Volume'],1,inplace=True)
  • if main_df.empty:
  • main_df = df
  • else:
  • main_df = main_df.join(df, how='outer')
  • if count % 10 == 0:
  • print(count)
  • print(main_df.head())
  • main_df.to_csv('sp500_joined_closes.csv')
  • def visualize_data():
  • df = pd.read_csv('sp500_joined_closes.csv')
  • #df['AAPL'].plot()
  • #plt.show()
  • df_corr = df.corr()
  • print(df_corr.head())
  • df_corr.to_csv('sp500corr.csv')
  • data1 = df_corr.values
  • fig1 = plt.figure()
  • ax1 = fig1.add_subplot(111)
  • heatmap1 = ax1.pcolor(data1, cmap=plt.cm.RdYlGn)
  • fig1.colorbar(heatmap1)
  • ax1.set_xticks(np.arange(data1.shape[1]) + 0.5, minor=False)
  • ax1.set_yticks(np.arange(data1.shape[0]) + 0.5, minor=False)
  • ax1.invert_yaxis()
  • ax1.xaxis.tick_top()
  • column_labels = df_corr.columns
  • row_labels = df_corr.index
  • ax1.set_xticklabels(column_labels)
  • ax1.set_yticklabels(row_labels)
  • plt.xticks(rotation=90)
  • heatmap1.set_clim(-1,1)
  • plt.tight_layout()
  • #plt.savefig("correlations.png", dpi = (300))
  • plt.show()
  • visualize_data()

我们的劳动果实:

这是很大一个果实。

所以我们可以使用放大镜来放大:

如果你单击它,你可以单击并拖动要放大的框。 这个图表上的框很难看清楚,只知道它在那里。 点击,拖动,释放,你应该放大了,看到像这样的东西:

你可以从这里移动,使用十字箭头按钮:

您也可以通过点击主屏幕按钮返回到原始的完整图形。您也可以使用前进和后退按钮“前进”和“后退”到前一个视图。您可以通过点击软盘来保存它。我想知道我们使用软盘的图像来描绘保存东西,有多久了。多久之后人们完全不知道软盘是什么?

好吧,看看相关性,我们可以看到有很多关系。毫不奇怪,大多数公司正相关。有相当多的公司与其他公司有很强的相关性,还有相当多的公司是非常负相关的。甚至有一些公司与大多数公司呈负相关。我们也可以看到有很多公司完全没有关联。机会就是,投资于一群长期以来没有相关性的公司,将是一个多元化的合理

方式,但我们现在还不知道。

不管怎样,这个数据已经有很多关系了。人们必须怀疑,一台机器是否能够纯粹依靠这些关系来识别和交易。我们可以轻松成为百万富豪吗?!我们至少可以试试!

九、处理数据,为机器学习做准备

欢迎阅读 Python 金融教程系列的第 9 部分。在之前的教程中,我们介绍了如何拉取大量公司的股票价格数据,如何将这些数据合并为一个大型数据集,以及如何直观地表示所有公司之间的一种关系。现在,我们将尝试采用这些数据,并做一些机器学习!

我们的想法是,看看如果我们获得所有当前公司的数据,并把这些数据扔给某种机器学习分类器,会发生什么。我们知道,随着时间的推移,各个公司彼此有着不同的练习,所以,如果机器能够识别并且拟合这些关系,那么我们可以从今天的价格变化中,预测明天会发生什么事情。咱们试试吧!

首先,所有机器学习都是接受“特征集”,并尝试将其映射到“标签”。无论我们是做 K 最近邻居还是深度神经网络学习,这都是一样的。因此,我们需要将现有的数据转换为特征集和标签。

我们的特征可以是其他公司的价格,但是我们要说的是,特征是所有公司当天的价格变化。我们的标签将是我们是否真的想买特定公司。假设我们正在考虑Exxon(XOM)。我们要做的特征集是,考虑当天所有公司的百分比变化,这些都是我们的特征。我们的标签将是 Exxon(XOM)在接下来的x天内涨幅是否超过x%,我们可以为x选择任何我们想要的值。首先,假设一家公司在未来 7 天内价格上涨超过 2%,如果价格在这 7 天内下跌超过 2%,那么就卖出。

这也是我们可以比较容易做出的一个策略。如果算法说了买入,我们可以买,放置 2% 的止损(基本上告诉交易所,如果价格跌破这个数字/或者如果你做空公司,价格超过这个数字,那么退出我的位置)。否则,公司一旦涨了 2% 就卖掉,或者保守地在 1% 卖掉,等等。无论如何,你可以比较容易地从这个分类器建立一个策略。为了开始,我们需要为我们的训练数据放入未来的价格。

我将继续编写我们的脚本。如果这对您是个问题,请随时创建一个新文件并导入我们使用的函数。

目前为止的完整代码:

  • import bs4 as bs
  • import datetime as dt
  • import matplotlib.pyplot as plt
  • from matplotlib import style
  • import numpy as np
  • import os
  • import pandas as pd
  • import pandas_datareader.data as web
  • import pickle
  • import requests
  • style.use('ggplot')
  • def save_sp500_tickers():
  • resp = requests.get('http://en.wikipedia.org/wiki/List_of_S%26P_500_companies')
  • soup = bs.BeautifulSoup(resp.text, 'lxml')
  • table = soup.find('table', {'class': 'wikitable sortable'})
  • tickers = []
  • for row in table.findAll('tr')[1:]:
  • ticker = row.findAll('td')[0].text
  • tickers.append(ticker)
  • with open("sp500tickers.pickle","wb") as f:
  • pickle.dump(tickers,f)
  • return tickers
  • def get_data_from_yahoo(reload_sp500=False):
  • if reload_sp500:
  • tickers = save_sp500_tickers()
  • else:
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • if not os.path.exists('stock_dfs'):
  • os.makedirs('stock_dfs')
  • start = dt.datetime(2000, 1, 1)
  • end = dt.datetime(2016, 12, 31)
  • for ticker in tickers:
  • # just in case your connection breaks, we'd like to save our progress!
  • if not os.path.exists('stock_dfs/{}.csv'.format(ticker)):
  • df = web.DataReader(ticker, "yahoo", start, end)
  • df.to_csv('stock_dfs/{}.csv'.format(ticker))
  • else:
  • print('Already have {}'.format(ticker))
  • def compile_data():
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • main_df = pd.DataFrame()
  • for count,ticker in enumerate(tickers):
  • df = pd.read_csv('stock_dfs/{}.csv'.format(ticker))
  • df.set_index('Date', inplace=True)
  • df.rename(columns={'Adj Close':ticker}, inplace=True)
  • df.drop(['Open','High','Low','Close','Volume'],1,inplace=True)
  • if main_df.empty:
  • main_df = df
  • else:
  • main_df = main_df.join(df, how='outer')
  • if count % 10 == 0:
  • print(count)
  • print(main_df.head())
  • main_df.to_csv('sp500_joined_closes.csv')
  • def visualize_data():
  • df = pd.read_csv('sp500_joined_closes.csv')
  • #df['AAPL'].plot()
  • #plt.show()
  • df_corr = df.corr()
  • print(df_corr.head())
  • df_corr.to_csv('sp500corr.csv')
  • data1 = df_corr.values
  • fig1 = plt.figure()
  • ax1 = fig1.add_subplot(111)
  • heatmap1 = ax1.pcolor(data1, cmap=plt.cm.RdYlGn)
  • fig1.colorbar(heatmap1)
  • ax1.set_xticks(np.arange(data1.shape[1]) + 0.5, minor=False)
  • ax1.set_yticks(np.arange(data1.shape[0]) + 0.5, minor=False)
  • ax1.invert_yaxis()
  • ax1.xaxis.tick_top()
  • column_labels = df_corr.columns
  • row_labels = df_corr.index
  • ax1.set_xticklabels(column_labels)
  • ax1.set_yticklabels(row_labels)
  • plt.xticks(rotation=90)
  • heatmap1.set_clim(-1,1)
  • plt.tight_layout()
  • #plt.savefig("correlations.png", dpi = (300))
  • plt.show()

继续,让我们开始处理一些数据,这将帮助我们创建我们的标签:

  • def process_data_for_labels(ticker):
  • hm_days = 7
  • df = pd.read_csv('sp500_joined_closes.csv', index_col=0)
  • tickers = df.columns.values.tolist()
  • df.fillna(0, inplace=True)

这个函数接受一个参数:问题中的股票代码。 每个模型将在一家公司上训练。 接下来,我们想知道我们需要未来多少天的价格。 我们在这里选择 7。

现在,我们将读取我们过去保存的所有公司的收盘价的数据,获取现有的代码列表,现在我们将为缺失值数据填入 0。

这可能是你将来要改变的东西,但是现在我们将用 0 来代替。 现在,我们要抓取未来 7 天的百分比变化:

  • for i in range(1,hm_days+1):
  • df['{}_{}d'.format(ticker,i)] = (df[ticker].shift(-i) - df[ticker]) / df[ticker]

这为我们的特定股票创建新的数据帧的列,使用字符串格式化创建自定义名称。 我们获得未来值的方式是使用.shift,这基本上会使列向上或向下移动。 在这里,我们移动一个负值,这将选取该列,如果你可以看到它,它会把这个列向上移动i行。 这给了我们未来值,我们可以计算百分比变化。

最后:

  • df.fillna(0, inplace=True)
  • return tickers, df

我们在这里准备完了,我们将返回代码和数据帧,并且我们正在创建一些特征集,我们的算法可以用它来尝试拟合和发现关系。

我们的完整处理函数:

  • def process_data_for_labels(ticker):
  • hm_days = 7
  • df = pd.read_csv('sp500_joined_closes.csv', index_col=0)
  • tickers = df.columns.values.tolist()
  • df.fillna(0, inplace=True)
  • for i in range(1,hm_days+1):
  • df['{}_{}d'.format(ticker,i)] = (df[ticker].shift(-i) - df[ticker]) / df[ticker]
  • df.fillna(0, inplace=True)
  • return tickers, df

在下一个教程中,我们将介绍如何创建我们的“标签”。

十、十一、为机器学习标签创建目标

欢迎阅读 Python 金融系列教程的第 10 部分(和第 11 部分)。 在之前的教程中,我们开始构建我们的标签,试图使用机器学习和 Python 来投资。 在本教程中,我们将使用我们上一次教程的内容,在准备就绪时实际生成标签。

目前为止的代码:

  • import bs4 as bs
  • import datetime as dt
  • import matplotlib.pyplot as plt
  • from matplotlib import style
  • import numpy as np
  • import os
  • import pandas as pd
  • import pandas_datareader.data as web
  • import pickle
  • import requests
  • style.use('ggplot')
  • def save_sp500_tickers():
  • resp = requests.get('http://en.wikipedia.org/wiki/List_of_S%26P_500_companies')
  • soup = bs.BeautifulSoup(resp.text, 'lxml')
  • table = soup.find('table', {'class': 'wikitable sortable'})
  • tickers = []
  • for row in table.findAll('tr')[1:]:
  • ticker = row.findAll('td')[0].text
  • tickers.append(ticker)
  • with open("sp500tickers.pickle","wb") as f:
  • pickle.dump(tickers,f)
  • return tickers
  • def get_data_from_yahoo(reload_sp500=False):
  • if reload_sp500:
  • tickers = save_sp500_tickers()
  • else:
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • if not os.path.exists('stock_dfs'):
  • os.makedirs('stock_dfs')
  • start = dt.datetime(2000, 1, 1)
  • end = dt.datetime(2016, 12, 31)
  • for ticker in tickers:
  • # just in case your connection breaks, we'd like to save our progress!
  • if not os.path.exists('stock_dfs/{}.csv'.format(ticker)):
  • df = web.DataReader(ticker, "yahoo", start, end)
  • df.to_csv('stock_dfs/{}.csv'.format(ticker))
  • else:
  • print('Already have {}'.format(ticker))
  • def compile_data():
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • main_df = pd.DataFrame()
  • for count,ticker in enumerate(tickers):
  • df = pd.read_csv('stock_dfs/{}.csv'.format(ticker))
  • df.set_index('Date', inplace=True)
  • df.rename(columns={'Adj Close':ticker}, inplace=True)
  • df.drop(['Open','High','Low','Close','Volume'],1,inplace=True)
  • if main_df.empty:
  • main_df = df
  • else:
  • main_df = main_df.join(df, how='outer')
  • if count % 10 == 0:
  • print(count)
  • print(main_df.head())
  • main_df.to_csv('sp500_joined_closes.csv')
  • def visualize_data():
  • df = pd.read_csv('sp500_joined_closes.csv')
  • #df['AAPL'].plot()
  • #plt.show()
  • df_corr = df.corr()
  • print(df_corr.head())
  • df_corr.to_csv('sp500corr.csv')
  • data1 = df_corr.values
  • fig1 = plt.figure()
  • ax1 = fig1.add_subplot(111)
  • heatmap1 = ax1.pcolor(data1, cmap=plt.cm.RdYlGn)
  • fig1.colorbar(heatmap1)
  • ax1.set_xticks(np.arange(data1.shape[1]) + 0.5, minor=False)
  • ax1.set_yticks(np.arange(data1.shape[0]) + 0.5, minor=False)
  • ax1.invert_yaxis()
  • ax1.xaxis.tick_top()
  • column_labels = df_corr.columns
  • row_labels = df_corr.index
  • ax1.set_xticklabels(column_labels)
  • ax1.set_yticklabels(row_labels)
  • plt.xticks(rotation=90)
  • heatmap1.set_clim(-1,1)
  • plt.tight_layout()
  • #plt.savefig("correlations.png", dpi = (300))
  • plt.show()
  • def process_data_for_labels(ticker):
  • hm_days = 7
  • df = pd.read_csv('sp500_joined_closes.csv', index_col=0)
  • tickers = df.columns.values.tolist()
  • df.fillna(0, inplace=True)
  • for i in range(1,hm_days+1):
  • df['{}_{}d'.format(ticker,i)] = (df[ticker].shift(-i) - df[ticker]) / df[ticker]
  • df.fillna(0, inplace=True)
  • return tickers, df

现在我们要创建一个创建标签的函数。 我们在这里有很多选择。 你可能希望有一些东西,它们指导购买,出售或持有,或者只是买或卖。

我要让我们实现前者。 基本上,如果价格在未来 7 天上涨超过 2%,那么我们会说这是买入。 如果在接下来的 7 天内下跌超过 2%,这是卖出。

如果这两者都不是,那么它就没有足够的动力,我们将会坚持我们的位置。 如果我们有这个公司的股份,我们什么都不做,我们坚持我们的位置。

如果我们没有该公司的股份,我们什么都不做,我们只是等待。 我们的函数是:

  • def buy_sell_hold(*args):
  • cols = [c for c in args]
  • requirement = 0.02
  • for col in cols:
  • if col > requirement:
  • return 1
  • if col < -requirement:
  • return -1
  • return 0

我们在这里使用args,所以我们可以在这里接受任意数量的列。 这里的想法是我们要把这个函数映射到 Pandas DataFrame的列,这个列将成为我们的“标签”。 -1是卖出,0 是持有,1 是买入。 *args将是那些未来的价格变化列,我们感兴趣的是,是否我们能看到超过 2% 的双向移动。 请注意,这不是一个完美的函数。 例如,价格可能上涨 2%,然后下降 2%,我们可能没有为此做好准备,但现在就这样了。

那么,让我们来生成我们的特征和标签! 对于这个函数,我们将添加下面的导入:

  • from collections import Counter

这将让我们在我们的数据集和算法预测中,看到类别的分布。 我们不想将高度不平衡的数据集扔给机器学习分类器,我们也想看看我们的分类器是否只预测一个类别。 我们下一函数是:

  • def extract_featuresets(ticker):
  • tickers, df = process_data_for_labels(ticker)
  • df['{}_target'.format(ticker)] = list(map( buy_sell_hold,
  • df['{}_1d'.format(ticker)],
  • df['{}_2d'.format(ticker)],
  • df['{}_3d'.format(ticker)],
  • df['{}_4d'.format(ticker)],
  • df['{}_5d'.format(ticker)],
  • df['{}_6d'.format(ticker)],
  • df['{}_7d'.format(ticker)] ))

这个函数将接受任何股票代码,创建所需的数据集,并创建我们的“目标”列,这是我们的标签。 根据我们的函数和我们当如的列,目标列将为每行设置一个-101。 现在,我们可以得到分布:

  • vals = df['{}_target'.format(ticker)].values.tolist()
  • str_vals = [str(i) for i in vals]
  • print('Data spread:',Counter(str_vals))

清理我们的数据:

  • df.fillna(0, inplace=True)
  • df = df.replace([np.inf, -np.inf], np.nan)
  • df.dropna(inplace=True)

我们可能有一些完全丢失的数据,我们将用 0 代替。接下来,我们可能会有一些无限的数据,特别是如果我们计算了从 0 到任何东西的百分比变化。 我们将把无限值转换为NaN,然后我们将放弃NaN。 我们几乎已经准备好了,但现在我们的“特征”就是当天股票的价格。 只是静态的数字,真的没有什么可说的。 相反,更好的指标是当天每个公司的百分比变化。 这里的想法是,有些公司的价格会先于其他公司变化,而我们也可能从中获利。 我们会将股价转换为百分比变化:

  • df_vals = df[[ticker for ticker in tickers]].pct_change()
  • df_vals = df_vals.replace([np.inf, -np.inf], 0)
  • df_vals.fillna(0, inplace=True)

再次,小心无限的数字,然后填充其他缺失的数据,现在,最后,我们准备创建我们的特征和标签:

  • X = df_vals.values
  • y = df['{}_target'.format(ticker)].values
  • return X,y,df

大写字母X包含我们的特征集(SP500 中每个公司的每日变化百分比)。 小写字母y是我们的“目标”或我们的“标签”。 基本上我们试图将我们的特征集映射到它。

好吧,我们有了特征和标签,我们准备做一些机器学习,这将在下一个教程中介绍。

十二、SP500 上的机器学习

欢迎阅读 Python 金融系列教程的第 12 部分。 在之前的教程中,我们介绍了如何获取数据并创建特征集和标签,然后我们可以将其扔给机器学习算法,希望它能学会将一家公司的现有价格变化关系映射到未来的价格变化。

在我们开始之前,我们目前为止的起始代码到:

  • import bs4 as bs
  • from collections import Counter
  • import datetime as dt
  • import matplotlib.pyplot as plt
  • from matplotlib import style
  • import numpy as np
  • import os
  • import pandas as pd
  • import pandas_datareader.data as web
  • import pickle
  • import requests
  • style.use('ggplot')
  • def save_sp500_tickers():
  • resp = requests.get('http://en.wikipedia.org/wiki/List_of_S%26P_500_companies')
  • soup = bs.BeautifulSoup(resp.text, 'lxml')
  • table = soup.find('table', {'class': 'wikitable sortable'})
  • tickers = []
  • for row in table.findAll('tr')[1:]:
  • ticker = row.findAll('td')[0].text
  • tickers.append(ticker)
  • with open("sp500tickers.pickle","wb") as f:
  • pickle.dump(tickers,f)
  • return tickers
  • def get_data_from_yahoo(reload_sp500=False):
  • if reload_sp500:
  • tickers = save_sp500_tickers()
  • else:
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • if not os.path.exists('stock_dfs'):
  • os.makedirs('stock_dfs')
  • start = dt.datetime(2000, 1, 1)
  • end = dt.datetime(2016, 12, 31)
  • for ticker in tickers:
  • # just in case your connection breaks, we'd like to save our progress!
  • if not os.path.exists('stock_dfs/{}.csv'.format(ticker)):
  • df = web.DataReader(ticker, "yahoo", start, end)
  • df.to_csv('stock_dfs/{}.csv'.format(ticker))
  • else:
  • print('Already have {}'.format(ticker))
  • def compile_data():
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • main_df = pd.DataFrame()
  • for count,ticker in enumerate(tickers):
  • df = pd.read_csv('stock_dfs/{}.csv'.format(ticker))
  • df.set_index('Date', inplace=True)
  • df.rename(columns={'Adj Close':ticker}, inplace=True)
  • df.drop(['Open','High','Low','Close','Volume'],1,inplace=True)
  • if main_df.empty:
  • main_df = df
  • else:
  • main_df = main_df.join(df, how='outer')
  • if count % 10 == 0:
  • print(count)
  • print(main_df.head())
  • main_df.to_csv('sp500_joined_closes.csv')
  • def visualize_data():
  • df = pd.read_csv('sp500_joined_closes.csv')
  • #df['AAPL'].plot()
  • #plt.show()
  • df_corr = df.corr()
  • print(df_corr.head())
  • df_corr.to_csv('sp500corr.csv')
  • data1 = df_corr.values
  • fig1 = plt.figure()
  • ax1 = fig1.add_subplot(111)
  • heatmap1 = ax1.pcolor(data1, cmap=plt.cm.RdYlGn)
  • fig1.colorbar(heatmap1)
  • ax1.set_xticks(np.arange(data1.shape[1]) + 0.5, minor=False)
  • ax1.set_yticks(np.arange(data1.shape[0]) + 0.5, minor=False)
  • ax1.invert_yaxis()
  • ax1.xaxis.tick_top()
  • column_labels = df_corr.columns
  • row_labels = df_corr.index
  • ax1.set_xticklabels(column_labels)
  • ax1.set_yticklabels(row_labels)
  • plt.xticks(rotation=90)
  • heatmap1.set_clim(-1,1)
  • plt.tight_layout()
  • #plt.savefig("correlations.png", dpi = (300))
  • plt.show()
  • def process_data_for_labels(ticker):
  • hm_days = 7
  • df = pd.read_csv('sp500_joined_closes.csv', index_col=0)
  • tickers = df.columns.values.tolist()
  • df.fillna(0, inplace=True)
  • for i in range(1,hm_days+1):
  • df['{}_{}d'.format(ticker,i)] = (df[ticker].shift(-i) - df[ticker]) / df[ticker]
  • df.fillna(0, inplace=True)
  • return tickers, df
  • def buy_sell_hold(*args):
  • cols = [c for c in args]
  • requirement = 0.02
  • for col in cols:
  • if col > requirement:
  • return 1
  • if col < -requirement:
  • return -1
  • return 0
  • def extract_featuresets(ticker):
  • tickers, df = process_data_for_labels(ticker)
  • df['{}_target'.format(ticker)] = list(map( buy_sell_hold,
  • df['{}_1d'.format(ticker)],
  • df['{}_2d'.format(ticker)],
  • df['{}_3d'.format(ticker)],
  • df['{}_4d'.format(ticker)],
  • df['{}_5d'.format(ticker)],
  • df['{}_6d'.format(ticker)],
  • df['{}_7d'.format(ticker)] ))
  • vals = df['{}_target'.format(ticker)].values.tolist()
  • str_vals = [str(i) for i in vals]
  • print('Data spread:',Counter(str_vals))
  • df.fillna(0, inplace=True)
  • df = df.replace([np.inf, -np.inf], np.nan)
  • df.dropna(inplace=True)
  • df_vals = df[[ticker for ticker in tickers]].pct_change()
  • df_vals = df_vals.replace([np.inf, -np.inf], 0)
  • df_vals.fillna(0, inplace=True)
  • X = df_vals.values
  • y = df['{}_target'.format(ticker)].values
  • return X,y,df

我们打算添加以下导入:

  • from sklearn import svm, cross_validation, neighbors
  • from sklearn.ensemble import VotingClassifier, RandomForestClassifier

Sklearn 是一个机器学习框架。 如果你没有它,请确保你下载它:pip install scikit-learnsvm import是支持向量机,cross_validation可以让我们轻松地创建打乱的训练和测试样本,neighbors是 K 最近邻。 然后,我们引入了VotingClassifierRandomForestClassifier。投票分类器正是它听起来的样子。 基本上,这是一个分类器,它可以让我们结合许多分类器,并允许他们分别对他们认为的特征集的类别进行“投票”。 随机森林分类器只是另一个分类器。 我们将在投票分类器中使用三个分类器。

我们现在准备做一些机器学习,所以让我们开始我们的函数:

  • def do_ml(ticker):
  • X, y, df = extract_featuresets(ticker)

我们已经有了我们的特征集和标签,现在我们想把它们打乱,训练,然后测试:

  • X_train, X_test, y_train, y_test = cross_validation.train_test_split(X,
  • y,
  • test_size=0.25)

这对我们来说是在打乱我们的数据(所以它没有任何特定的顺序),然后为我们创建训练和测试样本。

我们不想在我们相同的训练数据上“测试”这个算法。 如果我们这样做了,我们可能会比现实中做得更好。

我们想要在从来没有见过的数据上测试算法,看看我们是否真的有了一个可行的模型。

现在我们可以从我们想要的任何分类器中进行选择,现在让我们选择 K 最近邻:

  • clf = neighbors.KNeighborsClassifier()

现在我们可以在我们的数据上fit(训练)分类器:

  • clf.fit(X_train, y_train)

这行会接受我们的X数据,拟合我们的Y数据,对于我们拥有的每一对XY。 一旦完成,我们可以测试它:

  • confidence = clf.score(X_test, y_test)

这将需要一些特征集X_test来预测,并查看它是否与我们的标签y_test相匹配。 它会以小数形式返回给我们百分比精度,其中1.0是 100%,0.1是 10% 准确。 现在我们可以输出一些更有用的信息:

  • print('accuracy:',confidence)
  • predictions = clf.predict(X_test)
  • print('predicted class counts:',Counter(predictions))
  • print()
  • print()

这将告诉我们准确性是什么,然后我们可以得到X_testdata的准确度,然后输出分布(使用Counter),所以我们可以看到我们的模型是否只是对一个类进行分类,这是很容易发生的事情。

如果这个模型确实是成功的,我们可以用pickle保存它,并随时加载它,为它提供一些特征集,并用clf.predict得到一个预测结果,这将从单个特征集预测单个值, 从特征集列表中预测值列表。

好的,我们已经准备好了! 我们的目标是什么? 随机挑选的东西应该是 33% 左右,因为我们在理论上总共有三选择,但实际上我们的模型是不可能真正平衡的。 让我们看一些例子,然后运行:

  • do_ml('XOM')
  • do_ml('AAPL')
  • do_ml('ABT')
  • Data spread: Counter({'1': 1713, '-1': 1456, '0': 1108})
  • accuracy: 0.375700934579
  • predicted class counts: Counter({0: 404, -1: 393, 1: 273})
  • Data spread: Counter({'1': 2098, '-1': 1830, '0': 349})
  • accuracy: 0.4
  • predicted class counts: Counter({-1: 644, 1: 339, 0: 87})
  • Data spread: Counter({'1': 1690, '-1': 1483, '0': 1104})
  • accuracy: 0.33738317757
  • predicted class counts: Counter({-1: 383, 0: 372, 1: 315})

所以这些都比 33% 好,但是训练数据也不是很完美。 例如,我们可以看看第一个:

  • Data spread: Counter({'1': 1713, '-1': 1456, '0': 1108})
  • accuracy: 0.375700934579
  • predicted class counts: Counter({0: 404, -1: 393, 1: 273})

在这种情况下,如果模型只预测“买不买”? 这应该是 1,713 正确比上 4,277,这实际上是比我们得到的更好的分数。 那另外两个呢? 第二个是 AAPL,如果只是预测购买,至少在训练数据上是 49%。

如果只是在训练数据上预测购买与否,ABT 的准确率为 37%。

所以,虽然我们的表现比 33% 好,但目前还不清楚这种模型是否比只说“购买”更好。 在实际交易中,这一切都可以改变。

例如,如果这种模型说了某件事是买入的话,期望在 7 天内上涨 2%,但是直到 8 天才会出现 2% 的涨幅,并且,该算法一直说买入或者持有,那么这个模型就会受到惩罚。 在实际交易中,这样做还是可以的。 如果这个模型结果非常准确,情况也是如此。

实际上,交易模型完全可以是完全不同的东西。

接下来,让我们尝试一下投票分类器。 所以,不是clf = neighbors.KNeighborsClassifier(),我们这样做:

  • clf = VotingClassifier([('lsvc',svm.LinearSVC()),
  • ('knn',neighbors.KNeighborsClassifier()),
  • ('rfor',RandomForestClassifier())])

新的输出:

  • Data spread: Counter({'1': 1713, '-1': 1456, '0': 1108})
  • accuracy: 0.379439252336
  • predicted class counts: Counter({-1: 487, 1: 417, 0: 166})
  • Data spread: Counter({'1': 2098, '-1': 1830, '0': 349})
  • accuracy: 0.471028037383
  • predicted class counts: Counter({1: 616, -1: 452, 0: 2})
  • Data spread: Counter({'1': 1690, '-1': 1483, '0': 1104})
  • accuracy: 0.378504672897
  • predicted class counts: Counter({-1: 524, 1: 394, 0: 152})

在所有股票上,我们都有改进! 这很好看。 我们还特别注意,使用所有算法的默认值。

这些算法中的每一个都有相当多的参数,我们可以花一些时间来调整,来获得更高的效果,并且至少可以打败“对一切东西都预测买入”。

也就是说,机器学习是一个巨大的话题,需要花费几个月时间才能讲完所有东西。 如果你想自己学习更多的算法,以便你可以调整它们,看看机器学习系列教程。

我们涵盖了一堆机器学习算法,它们背后是如何工作的,如何应用它们,然后如何使用原始的 Python 自己制作它们。

在你完成整个系列课程的时候,你应该能够很好地配置机器学习来应对各种挑战。

目前为止的所有代码:

  • import bs4 as bs
  • from collections import Counter
  • import datetime as dt
  • import matplotlib.pyplot as plt
  • from matplotlib import style
  • import numpy as np
  • import os
  • import pandas as pd
  • import pandas_datareader.data as web
  • import pickle
  • import requests
  • from sklearn import svm, cross_validation, neighbors
  • from sklearn.ensemble import VotingClassifier, RandomForestClassifier
  • style.use('ggplot')
  • def save_sp500_tickers():
  • resp = requests.get('http://en.wikipedia.org/wiki/List_of_S%26P_500_companies')
  • soup = bs.BeautifulSoup(resp.text, 'lxml')
  • table = soup.find('table', {'class': 'wikitable sortable'})
  • tickers = []
  • for row in table.findAll('tr')[1:]:
  • ticker = row.findAll('td')[0].text
  • tickers.append(ticker)
  • with open("sp500tickers.pickle","wb") as f:
  • pickle.dump(tickers,f)
  • return tickers
  • def get_data_from_yahoo(reload_sp500=False):
  • if reload_sp500:
  • tickers = save_sp500_tickers()
  • else:
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • if not os.path.exists('stock_dfs'):
  • os.makedirs('stock_dfs')
  • start = dt.datetime(2000, 1, 1)
  • end = dt.datetime(2016, 12, 31)
  • for ticker in tickers:
  • # just in case your connection breaks, we'd like to save our progress!
  • if not os.path.exists('stock_dfs/{}.csv'.format(ticker)):
  • df = web.DataReader(ticker, "yahoo", start, end)
  • df.to_csv('stock_dfs/{}.csv'.format(ticker))
  • else:
  • print('Already have {}'.format(ticker))
  • def compile_data():
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • main_df = pd.DataFrame()
  • for count,ticker in enumerate(tickers):
  • df = pd.read_csv('stock_dfs/{}.csv'.format(ticker))
  • df.set_index('Date', inplace=True)
  • df.rename(columns={'Adj Close':ticker}, inplace=True)
  • df.drop(['Open','High','Low','Close','Volume'],1,inplace=True)
  • if main_df.empty:
  • main_df = df
  • else:
  • main_df = main_df.join(df, how='outer')
  • if count % 10 == 0:
  • print(count)
  • print(main_df.head())
  • main_df.to_csv('sp500_joined_closes.csv')
  • def visualize_data():
  • df = pd.read_csv('sp500_joined_closes.csv')
  • #df['AAPL'].plot()
  • #plt.show()
  • df_corr = df.corr()
  • print(df_corr.head())
  • df_corr.to_csv('sp500corr.csv')
  • data1 = df_corr.values
  • fig1 = plt.figure()
  • ax1 = fig1.add_subplot(111)
  • heatmap1 = ax1.pcolor(data1, cmap=plt.cm.RdYlGn)
  • fig1.colorbar(heatmap1)
  • ax1.set_xticks(np.arange(data1.shape[1]) + 0.5, minor=False)
  • ax1.set_yticks(np.arange(data1.shape[0]) + 0.5, minor=False)
  • ax1.invert_yaxis()
  • ax1.xaxis.tick_top()
  • column_labels = df_corr.columns
  • row_labels = df_corr.index
  • ax1.set_xticklabels(column_labels)
  • ax1.set_yticklabels(row_labels)
  • plt.xticks(rotation=90)
  • heatmap1.set_clim(-1,1)
  • plt.tight_layout()
  • #plt.savefig("correlations.png", dpi = (300))
  • plt.show()
  • def process_data_for_labels(ticker):
  • hm_days = 7
  • df = pd.read_csv('sp500_joined_closes.csv', index_col=0)
  • tickers = df.columns.values.tolist()
  • df.fillna(0, inplace=True)
  • for i in range(1,hm_days+1):
  • df['{}_{}d'.format(ticker,i)] = (df[ticker].shift(-i) - df[ticker]) / df[ticker]
  • df.fillna(0, inplace=True)
  • return tickers, df
  • def buy_sell_hold(*args):
  • cols = [c for c in args]
  • requirement = 0.02
  • for col in cols:
  • if col > requirement:
  • return 1
  • if col < -requirement:
  • return -1
  • return 0
  • def extract_featuresets(ticker):
  • tickers, df = process_data_for_labels(ticker)
  • df['{}_target'.format(ticker)] = list(map( buy_sell_hold,
  • df['{}_1d'.format(ticker)],
  • df['{}_2d'.format(ticker)],
  • df['{}_3d'.format(ticker)],
  • df['{}_4d'.format(ticker)],
  • df['{}_5d'.format(ticker)],
  • df['{}_6d'.format(ticker)],
  • df['{}_7d'.format(ticker)] ))
  • vals = df['{}_target'.format(ticker)].values.tolist()
  • str_vals = [str(i) for i in vals]
  • print('Data spread:',Counter(str_vals))
  • df.fillna(0, inplace=True)
  • df = df.replace([np.inf, -np.inf], np.nan)
  • df.dropna(inplace=True)
  • df_vals = df[[ticker for ticker in tickers]].pct_change()
  • df_vals = df_vals.replace([np.inf, -np.inf], 0)
  • df_vals.fillna(0, inplace=True)
  • X = df_vals.values
  • y = df['{}_target'.format(ticker)].values
  • return X,y,df
  • def do_ml(ticker):
  • X, y, df = extract_featuresets(ticker)
  • X_train, X_test, y_train, y_test = cross_validation.train_test_split(X,
  • y,
  • test_size=0.25)
  • #clf = neighbors.KNeighborsClassifier()
  • clf = VotingClassifier([('lsvc',svm.LinearSVC()),
  • ('knn',neighbors.KNeighborsClassifier()),
  • ('rfor',RandomForestClassifier())])
  • clf.fit(X_train, y_train)
  • confidence = clf.score(X_test, y_test)
  • print('accuracy:',confidence)
  • predictions = clf.predict(X_test)
  • print('predicted class counts:',Counter(predictions))
  • print()
  • print()
  • return confidence
  • # examples of running:
  • do_ml('XOM')
  • do_ml('AAPL')
  • do_ml('ABT')

你也可以在所有代码上运行它:

  • from statistics import mean
  • with open("sp500tickers.pickle","rb") as f:
  • tickers = pickle.load(f)
  • accuracies = []
  • for count,ticker in enumerate(tickers):
  • if count%10==0:
  • print(count)
  • accuracy = do_ml(ticker)
  • accuracies.append(accuracy)
  • print("{} accuracy: {}. Average accuracy:{}".format(ticker,accuracy,mean(accuracies)))

这将需要一段时间。 我继续做下去,结果平均准确率为 46.279%。 不错,但是从我这里看,结果对于任何形式的策略仍然是可疑的。

在接下来的教程中,我们将深入测试交易策略。

十三、使用 Quantopian 测试交易策略

欢迎阅读 Python 金融系列教程的第 13

部分。在本教程中,我们将开始谈论策略回测。回测领域和正确执行的要求是相当大的。基本上,我们需要创建一个系统,接受历史价格数据并在该环境中模拟交

易,然后给我们结果。这听起来可能很简单,但为了分析策略,我们需要跟踪一系列指标,比如我们卖出什么,什么时候交易,我们的 Beta 和 Alpha 是什么,以及其他指标如 drawdown,夏普比,波动率,杠杆等等。除此之外,我们通常希望能够看到所有这些。所以,我们可以自己写所有这些,也可以用一个平台来帮助我们...

这就是为什么我们要介绍 Quantopian,这是一个平台,可以让我们轻松地使用 Python 编写和回测交易策略。

Quantopian 所做的是,在 Python 的 Zipline 回测库之上增加了一个 GUI 层,也带有大量的数据源,其中很多都是完全免费的。如果您符合特定标准,您还可以通过将您的策略授权给他们,从 Quantopian 获得资金。一般来说,-0.3+0.3之间的 β 值是一个很好的起点,但是您还需要有其他健康的指标来竞争。稍后再介绍一下 Quantopian 的基础知识。由于 Quantopian 主要由 Zipline,Alphalens 和 Pyfolio 等开源库支持,如果您愿意,还可以在本地运行类似 Quantopian 的平台。我发现大多数人都对此感兴趣,来保持其算法的私密性。 Quantopian 不会查看您的算法,除非您授予他们权限,而社区只有在您分享算法时才会看到您的算法。我强烈建议你把自己和 Quantopian 的关系看作是一种合作关系,而不是竞争关系。如果您想出了一些高质量的策略,Quantopian 非常乐意与您合作,并且用资金投资您。在这种关系中,Quantopian 将平台,资金和其他专家带到这个领域来帮助你,在我看来这是一个相当不错的交易。

首先,前往quantopian.com,如果你没有帐户就创建一个,并登录。随意点一点鼠标。 Quantopian 社区论坛是吸收一些知识的好地方。 Quantopian 也经常举办带现金奖励的比赛。我们将从算法开始。到了那里,选择蓝色的“新算法”按钮。现在,我们将把我们大部分时间花在两个地方,这可以在“我的代码” 按钮下找到。首先,我们将访问算法,并使用蓝色的“新算法”按钮创建一个新的算法。

当你创建算法时,你应该被带到你的实时编辑算法页面,并带有克隆的算法,看起来像这样(除了彩色框),以及 UI 的一些可能的更改。

Python编辑器 - 这是您为算法编写 Python 逻辑的地方。

构建算法结果 - 当您构建算法时,图形结果将在这里出现。

日志/错误输出 - 任何控制台输出/日志信息将在这里。 您的程序通常会输出各种文本来调试,或者只是为了获取更多信息。

构建算法 - 使用它来快速测试你写的东西。 结果不会被保存,但是您可以在“内置算法结果”部分看到结果。

完整的回测 - 这将根据您当前的算法运行完整的回测。 完整的回测会提供更多分析,结果将被保存,并且生成这些结果的算法也会被保存,所以您可以返回去浏览回测,并查看生成特定结果的具体代码。

起始示例代码如下所示:

  • """
  • This is a template algorithm on Quantopian for you to adapt and fill in.
  • """
  • from quantopian.algorithm import attach_pipeline, pipeline_output
  • from quantopian.pipeline import Pipeline
  • from quantopian.pipeline.data.builtin import USEquityPricing
  • from quantopian.pipeline.factors import AverageDollarVolume
  • def initialize(context):
  • """
  • Called once at the start of the algorithm.
  • """
  • # Rebalance every day, 1 hour after market open.
  • schedule_function(my_rebalance, date_rules.every_day(), time_rules.market_open(hours=1))
  • # Record tracking variables at the end of each day.
  • schedule_function(my_record_vars, date_rules.every_day(), time_rules.market_close())
  • # Create our dynamic stock selector.
  • attach_pipeline(make_pipeline(), 'my_pipeline')
  • def make_pipeline():
  • """
  • A function to create our dynamic stock selector (pipeline). Documentation on
  • pipeline can be found here: https://www.quantopian.com/help#pipeline-title
  • """
  • # Create a dollar volume factor.
  • dollar_volume = AverageDollarVolume(window_length=1)
  • # Pick the top 1% of stocks ranked by dollar volume.
  • high_dollar_volume = dollar_volume.percentile_between(99, 100)
  • pipe = Pipeline(
  • screen = high_dollar_volume,
  • columns = {
  • 'dollar_volume': dollar_volume
  • }
  • )
  • return pipe
  • def before_trading_start(context, data):
  • """
  • Called every day before market open.
  • """
  • context.output = pipeline_output('my_pipeline')
  • # These are the securities that we are interested in trading each day.
  • context.security_list = context.output.index
  • def my_assign_weights(context, data):
  • """
  • Assign weights to securities that we want to order.
  • """
  • pass
  • def my_rebalance(context,data):
  • """
  • Execute orders according to our schedule_function() timing.
  • """
  • pass
  • def my_record_vars(context, data):
  • """
  • Plot variables at the end of each day.
  • """
  • pass
  • def handle_data(context,data):
  • """
  • Called every minute.
  • """
  • pass

这很好,但是可能还差一点才能开始。如果您的帐户是新的,Quantopian 还提供了一些示例算法。随意查看一下,但你可能会发现他们令人困惑。每个算法中只需要两个函数:initializehandle_data。初始化函数在脚本开始时运行一次。您将使用它来设置全局,例如规则,稍后使用的函数以及各种参数。接下来是handle_data函数,在市场数据上每分钟运行一次。

让我们编写我自己的简单策略来熟悉 Quantopian。我们将要实现一个简单的移动均值交叉策略,看看它是如何实现的。

如果你不熟悉移动均值,他们所做的就是获取一定数量的“窗口”数据。在每日价格的情况下,一个窗口将是一天。如果你计算 20 移动均值,这意味着 20 日均值。从这里来看,我们假设你有 20 移动均值和 50 移动均值。在一个图上绘制它可能看起来像这样:

在这里,蓝线是股价,红线是 20 移动均值,黄线是 50 移动均值。这个想法是,20 个移动均值反应更快,当它移动到 50 移动均值上面时,这意味着价格可能会上涨,我们可能要投资。相反,如果 20 移动均值跌到 50 移动平均线下面,这可能意味着价格正在下降,我们可能要么出售或投资,甚至卖空公司,这是你打赌的地方。

就我们的目的而言,让我们在 2015 年 10 月 7 日至 2016 年 10 月 7 日之间,对苹果公司(AAPL)应用移动均值交叉策略。在此期间,AAPL 股价下跌,随后上涨,净变化很小。我们的交叉策略应该随着价格的下跌而保持远离或者做空(押注),然后在价格上涨的时候扑上来。做空公司需要向其他人借入 股票,然后出售,然后几天之后再重新买入股份。你的希望是股价下跌,你重新买回会便宜得多,并将股份还给原来的所有者,赚取差价。首先,我们来构建初始化方法:

  • def initialize(context):
  • context.aapl = sid(24)

现在,我们只是要定义我们的苹果股票。如果你真的开始输入sid(,Quantopian 有很好的自动补全功能,你可以开始输入公司名称或代码来找到他们的sid。使用sid的原因是,因为公司代码可以在一段时间内改变。这是一种方法,确保你得到你想要得到的代码,你也可以使用symbol()来使用代码,并且让你的代码更容易阅读,但这不推荐,因为股票代码可以改变。

每次用 Zipline 或 Quantopian 创建算法时,都需要有initializehandle_data方法。

初始化方法在算法启动时运行一次(或者如果您正在实时运行算法,则每天运行一次)。 handle_data每分钟运行一次。

在我们的初始化方法中,我们传递这个上下文参数。上下文是一个 Python 字典,我们将使用它来跟踪,我们将全局变量用于什么。简而言之,上下文变量用于跟踪我们当前的投资环境,例如我们的投资组合和现金。

接下来,我们仍然需要我们的handle_data函数。该函数将contextdata作为参数。

上下文参数已解释了,数据变量用于跟踪实际投资组合之外的环境。它跟踪股票价格和其他我们可能投资的公司的信息,但是他们是我们正在跟踪的公司。

handle_data函数的开头:

  • def handle_data(context,data):
  • # prices for aapl for the last 50 days, in 1 day intervals
  • hist = data.history(context.aapl,'price', 50, '1d')

我们可以使用.history方法,获取过去的 50 天内苹果公司的历史价格,间隔为 1 天。 现在我们可以执行:

  • # mean of the entire 200 day history
  • sma_50 = hist.mean()
  • # mean of just the last 50 days
  • sma_20 = hist[-20:].mean()

sma_50值就是我们刚刚拉取的历史数据的均值。 sma_20是数据的最后 20 天。 请注意,这包含在handle_data方法中,该方法在每个周期运行,所以我们只需要跟踪 50 和 20 简单移动均值每天的值。

在下一个教程中,我们将讨论下订单。

十四、使用 Quantopian 下达交易订单

欢迎阅读 Python 金融系列教程的第 14 部分,使用 Quantopian。 在本教程中,我们将介绍如何实际下单(股票/卖出/做空)。

到目前为止,我们有以下代码:

  • def initialize(context):
  • context.aapl = sid(24)
  • def handle_data(context,data):
  • # prices for aapl for the last 50 days, in 1 day intervals
  • hist = data.history(context.aapl,'price', 50, '1d')
  • # mean of the entire 50 day history
  • sma_50 = hist.mean()
  • # mean of just the last 50 days
  • sma_20 = hist[-20:].mean()

我们到目前为止所做的,定义了什么是context.aapl,然后我们抓取了 AAPL 的历史价格,并且使用这些价格生成了一些代码,在每个时间间隔计算 50 和 20 简单移动均值。

我们的计划是制定一个简单的移动均值交叉策略,我们几乎准备完毕了。 逻辑应该简单:如果 20SMA 大于 50SMA,那么价格在上涨,我们想在这时候买入! 如果 20SMA 低于 50SMA,那么价格将下跌,我们想做空这个公司(下注)。

让我们建立一个订单系统来反映这一点:

  • if sma_20 > sma_50:
  • order_target_percent(context.aapl, 1.0)
  • elif sma_20 < sma_50:
  • order_target_percent(context.aapl, -1.0)

order_target_percent函数用于让我们将一定比例的投资组合投资到一家公司。

在这种情况下,我们唯一考虑的公司是 Apple(AAPL),所以我们使用了 1.0(100%)。 下单有很多方法,这只是其中的一个。

我们可以做市场订单,订特定的金额,订百分比,订目标价值,当然也可以取消未成交的订单。 在这种情况下,我们期望在每一步都简单地买入/卖出 100% 的股份。 如果我们运行它,我们会得到:

太棒了!我们会变富!

只是没有用这个策略。

当你第一次写一个算法,特别是在开始时,这样的事情很可能发生。也许这对你有利,或者你失去了 1000% 的起始资金,你想知道发生了什么。在这种情况下,很容易发现它。首先,我们的回报是不可能的,而且,根据 Quantopian 的基本读数,我们可以看到,当我们启动资金是 100 万美元时,我们现在正在做的交易达到数千万美元,甚至数亿美元。

那么这里发生了什么? Quantopian 是为了让你做任何你想做的事情而建立的,对“贷款”没有任何限制。当你借贷在金融世界投资时,通常被称为杠杆。这个帐户的杠杆严重,这正是我们所要求的。

学习如何诊断它,并在未来避免它非常重要!

第一步几乎总是记录杠杆。现在我们来做:

  • def initialize(context):
  • context.aapl = sid(24)
  • def handle_data(context,data):
  • hist = data.history(context.aapl,'price', 50, '1d')
  • sma_50 = hist.mean()
  • sma_20 = hist[-20:].mean()
  • if sma_20 > sma_50:
  • order_target_percent(context.aapl, 1.0)
  • elif sma_20 < sma_50:
  • order_target_percent(context.aapl, -1.0)
  • record(leverage = context.account.leverage)

有了记录,我们可以跟踪五个值。 这里,我们仅仅选择一个。 我们正在查看我们的帐户的杠杆,我们在context.account.leverage中自动跟踪它。 你可以看到其他选项,只需通过context。 或context.account, 等等,来使用自动完成查看你的选择是什么。 您也可以使用记录来跟踪其他值,这仅仅是一个例子。

只要运行一下,我们就能看到杠杆确实无法控制:

好的,所以我们已经杠杆过多。 究竟发生了什么? 好吧,对于一个人,这个handle_data函数每分钟都运行。

因此,我们每分钟都可以合理下单,在这里,它下单了投资组合的 100%。 我们认为我们是安全的,因为我们正在下单一个目标百分比。 如果目标百分比是 100%,那么我们为什么会得到这么多呢? 问题是,订单实际填充可能需要时间。 因此,一个订单正在等待填充,另一个正在同时进行!

我们可能想要避免的第一件事,就是使用get_open_orders()方法,如下所示:

  • open_orders = get_open_orders()
  • if sma_20 > sma_50:
  • if context.aapl not in open_orders:
  • order_target_percent(context.aapl, 1.0)
  • elif sma_20 < sma_50:
  • if context.aapl not in open_orders:
  • order_target_percent(context.aapl, -1.0)

现在,在每个订单之前,我们检查是否有这个公司的未完成订单。 让我们来运行它。

需要注意的一点是,除非您阅读文档,否则确实没有办法知道存在get_open_orders()。 我会告诉你很多方法和函数,但是我当然不会把它们全部涵盖。 一定要确保你浏览了 Quantopian API 文档,看看你有什么可用的。 你不需要全部阅读,只需浏览一遍,并阅读注意到的函数。 函数/方法是红色的,所以当你浏览的时候很容易捕捉它们。

这次运行的结果:

你看到的偏差是1 +/- 0.0001。 正如我们所希望的那样,在这次的所有时间中,我们有效使杠杆保持为 1,但是......呃......那个回报不是非常好!

通过点击左侧导航栏中的“交易详情”,我们可以看到一件事情,那就是我们每天都在做很多交易。 我们可以看到我们的一些交易量也相当大,有时差不多有 1000 万美元。 这里发生了什么事? 我们也认为我们最好每天只进行一次交易。

相反,handle_data函数每分钟运行一次,所以,我们实际上仍然可能每分钟进行一次交易。 如果我们希望做的事情,不是每分钟都在评估市场的话,我们实际上可能打算调度这个函数。 幸运的是,我们可以这样做,这是下一个教程的主题!

十五、在 Quantopian 上调度函数

欢迎来到 Python 金融系列教程的第 15 部分,使用 Quantopian 和 Zipline。 在本教程中,我们将介绍schedule_function

在我们的案例中,我们实际上只打算每天交易一次,而不是一天交易多次。 除了简单的交易之外,另一种通常的做法是及时“重新平衡”投资组合。 也许每周,也许每天,也许每个月你想适当平衡,或“多元化”你的投资组合。 这个调度功能可以让你实现它! 为了调度函数,可以在initialize方法中调用schedule_function函数。

  • def initialize(context):
  • context.aapl = sid(24)
  • schedule_function(ma_crossover_handling, date_rules.every_day(), time_rules.market_open(hours=1))

在这里,我们要说的是,我们希望调度这个函数,every_day(每天)在market_open后一个小时运行。 像往常一样,这里有很多选择。 您可以在市场收盘前x小时(仍然使用正值)运行。 例如,如果您想在market_close之前 1 小时运行它,那将是time_rules.market_close(hours=1)。 您也可以在几分钟内调度,如:time_rules.market_close(hours=0, minutes=1),这意味着在市场收盘前 1 分钟运行这个函数。

现在,我们要做的是从handle_data函数中获取以下代码:

  • hist = data.history(context.aapl,'price', 50, '1d')
  • sma_50 = hist.mean()
  • sma_20 = hist[-20:].mean()
  • open_orders = get_open_orders()
  • if sma_20 > sma_50:
  • if context.aapl not in open_orders:
  • order_target_percent(context.aapl, 1.0)
  • elif sma_20 < sma_50:
  • if context.aapl not in open_orders:
  • order_target_percent(context.aapl, -1.0)
  • ...cut it and place it under a new function ma_crossover_handling
  • def ma_crossover_handling(context,data):
  • hist = data.history(context.aapl,'price', 50, '1d')
  • sma_50 = hist.mean()
  • sma_20 = hist[-20:].mean()
  • open_orders = get_open_orders()
  • if sma_20 > sma_50:
  • if context.aapl not in open_orders:
  • order_target_percent(context.aapl, 1.0)
  • elif sma_20 < sma_50:
  • if context.aapl not in open_orders:
  • order_target_percent(context.aapl, -1.0)

请注意,我们在这里传递上下文和数据。现在,运行完整的回测,您应该注意到这比以前要快得多。这是因为我们实际上并不是每分钟重新计算移动均值,而是现在每天计算一次。这为我们节省了大量的计算。

但是请注意,我们的一些交易栏表明,我们正在买卖近 200 万美元的股票,当时我们的资本应该是 100 万美元,而我们做得还不够好,已经翻了一番。

做空会造成这种情况。当我们在 Quantopian 上做空公司时,我们的股票是负的。例如,我们假设我们卖空 100 股苹果。这意味着我们在苹果有 -100 的股份。然后考虑我们想改变我们的股份,持有 100 股苹果。实际上我们需要购买 100 股,来达到 0 股,之后再买 100 股达到+100。从+100-100也是如此。这就是为什么我们拥有这些看似双倍的交易,没有杠杆。所以通过买入(长期)我们大约是-7%,并且根据移动平均交叉做空苹果。如果我们只是买和卖,而不是买和做空,会发生什么?

  • def initialize(context):
  • context.aapl = sid(24)
  • schedule_function(ma_crossover_handling, date_rules.every_day(), time_rules.market_open(hours=1))
  • def handle_data(context,data):
  • record(leverage=context.account.leverage)
  • def ma_crossover_handling(context,data):
  • hist = data.history(context.aapl,'price', 50, '1d')
  • sma_50 = hist.mean()
  • sma_20 = hist[-20:].mean()
  • open_orders = get_open_orders()
  • if sma_20 > sma_50:
  • if context.aapl not in open_orders:
  • order_target_percent(context.aapl, 1.0)
  • elif sma_20 < sma_50:
  • if context.aapl not in open_orders:
  • order_target_percent(context.aapl, 0.0)

我们基本上原地运行。 通常在这个时候,人们开始考虑调整移动均值。 也许是 10 和 50,或者 2 和 50!

是的,2 和 50

是魔数!我们击败了市场。问题是,我们没有这些随机数字的真正理由,除了我们特地使我们的回测保持运行,直到我们成功。这是一种数据监听的形式,是一个常见的陷阱,也是你想避免的。例如,选择特定的移动均值来“最好地拟合”历史数据,可能会导致未来的问题,因为这些数字用于历史数据,而不是新的,没有见过的数据。考虑一下苹果公司多年来的变化。它从一个电脑公司,变成知名公司,MP3 播放器公司,再变成电话和电脑公司。由于公司本身也在变化,股票的行为可能会在未来持续变化。

相反,我们需要看看我们的策略,并意识到移动平均交叉策略是不好的。我们需要别的东西,而且我们需要一些有意义的东西作为策略,然后我们使用回测来验证是否可行。我们不希望发现自己不断地调整我们的策略,并好奇地回测,看看我们能否找到一些魔数。这对我们来说不太可能在未来好转。

十六、Quantopian 研究入门

接下来的几篇教程将使用 Jamie McCorriston 的“如何获得分配:为 Quantopian 投资管理团队网络研讨会代码编写算法”的稍微修改版本。

第一部分:研究环境入门

  • from quantopian.interactive.data.sentdex import sentiment

上面,我们导入了 Sentdex 情绪数据集。 情绪数据集提供了大约 500 家公司从 2013 年 6 月开始的情绪数据,1 个月前可以在 Quantopian 上免费使用。 Sentdex 数据提供的信号范围是 -3 到正 6,其中正 6 的程度和 -3 一样,我个人认为正值的粒度更小。

方便获取更多学习、工作、生活信息请关注本站微信公众号城东书院 微信服务号城东书院 微信订阅号
推荐内容
相关内容
栏目更新
栏目热门
本栏推荐