DolphinDB database 是一款高性能分布式时序数据库(time-series database),它特地实用于投资银行、对冲基金和交易所的定量查问和剖析,能够用于构建基于历史数据的策略测试。上面咱们将举例说明如何在DolphinDB中疾速构建简单的Alpha因子。

驰名论文 101 Formulaic Alphas 给出了世界顶级量化对冲基金之一的WorldQuant所应用的101个Alpha因子公式。很多集体和机构尝试用不同的语言来实现这101个Alpha因子。本文中,咱们例举了较为简单的Alpha #001和较为简单的Alpha #098两个因子的实现,别离应用了2行和4行DolphinDB SQL代码,堪称史上最简。

因子介绍

Alpha#001公式:rank(Ts_ArgMax(SignedPower((returns<0?stddev(returns,20):close), 2), 5))-0.5

Alpha #001的具体解读能够参考【史上最具体】WorldQuant Alpha 101因子系列#001钻研。

Alpha#98公式:(rank(decay_linear(correlation(vwap, sum(adv5,26.4719), 4.58418), 7.18088))- rank(decay_linear(Ts_Rank(Ts_ArgMin(correlation(rank(open), rank(adv15), 20.8187), 8.62571), 6.95668) ,8.07206)))

这两个因子在计算时候既用到了cross sectional的信息,也用到了大量工夫序列的计算。也即在计算某个股票某一天的因子时,既要用到该股票的历史数据,也要用到当天所有股票的信息,所以计算量很大。

须要的数据

输出数据为蕴含以下字段的table:

symbol:股票代码

date:日期

volume:成交量

vwap:成交量的加权平均价格

open:收盘价格

close:收盘价格

在计算Alpha #001因子时,只须要股票代码、日期和收盘价格三个字段。

代码实现

def alpha1(stock){    t= select date,symbol ,mimax(pow(iif(ratios(close) < 1.0, mstd(ratios(close) - 1, 20),close), 2.0), 5) as maxIndex from stock context by symbol    return select date,symbol, rank(maxIndex) - 0.5 as A1 from t context by date}def alpha98(stock){    t = select symbol, date, vwap, open, mavg(volume, 5) as adv5, mavg(volume,15) as adv15 from stock context by symbol    update t set rank_open = rank(open), rank_adv15 = rank(adv15) context by date    update t set decay7 = mavg(mcorr(vwap, msum(adv5, 26), 5), 1..7), decay8 = mavg(mrank(9 - mimin(mcorr(rank_open, rank_adv15, 21), 9), true, 7), 1..8) context by symbol    return select symbol, date, rank(decay7)-rank(decay8) as A98 from t context by date }

以上代码应用了DolphinDB的一些内置函数:

pow:计算指数幂

iif:条件运算函数

ratios:对向量X的每个元素,计算X(n)X(n-1)

mstd:在滑动窗口中计算标准差

mavg:在滑动窗口中计算平均值

mcorr:在滑动窗口中计算相关性

msum:在滑动窗口中求和

mrank:返回元素在滑动窗口的按升序或降序排序后的地位

mimin:返回滑动窗口中最小值的索引地位

mimax:返回滑动窗口中最大值的索引地位。

所有的外围代码都用SQL实现,对用户十分不便,可读性也很好。SQL中最要害的性能是context by子句实现的分组计算性能。与group by每个组产生一行记录不同,context by会输入与输出雷同行数的记录,不便的进行多个函数嵌套。cross sectional计算时,咱们用date分组。工夫序列计算时,咱们用symbol(股票代码)分组。

性能剖析

咱们应用美国证券市场从2007年到2016年总共11,711只股票进行回测。每个股票每个交易日产生一个因子值, 总共产生1700万个因子值。测试机器配置如下:

CPU: Intel Core i7-9700 @ 3.0 GHz

内存: 32GB

操作系统: Ubuntu 18.04.4

应用单线程计算,Alpha #001因子耗时仅1.5秒,简单的Alpha #098因子耗时仅4.3秒。应用pandas计算,Alpha #98耗时760.1秒,性能相差150倍以上。pandas实现代码见文末。DolphinDB的高性能得益于它的设计思路和技术架构,详情能够参考揭秘高性能DolphinDB。

在计算Alpha因子时,除了要思考性能问题,代码的简洁性和可读性也不容忽视。DolphinDB实现Alpha #001因子只须要2行外围代码,实现Alpha #098因子仅须要4行外围代码,而其余零碎实现则须要大段代码,能够参考pandas实现或者其余零碎计算Alpha #001因子。为什么DolphinDB的实现如此简洁?这得益于DolphinDB功能强大的脚本语言。在DolphinDB中,脚本语言与SQL是齐全交融在一起的,SQL查问能够间接赋给一个变量或作为函数的参数。DolphinDB的SQL引擎除了反对规范的SQL以外,还为大数据分析特地是工夫序列数据分析做了很多有用的扩大。比方下面应用到的context by是DolphinDB的特色之一,它相当于其余零碎(SQL Server、PostgreSQL)的窗口函数,然而它比其余零碎的窗口函数功能丰富得多,语法上也更简洁灵便,对面板数据十分敌对。DolphinDB内置了许多与时序数据相干的函数,并进行了优化,大幅度提高了计算性能,比方下面应用到的mavg、mcorr、mrank、mimin等计算滑动窗口指标的函数复杂度仅为O(n)或O(nlogk), k为窗口大小。如果你想理解更多DolphinDB的脚本语言,能够参考DolphinDB脚本语言的混合范式编程。

感兴趣的敌人能够到官网下载 DolphinDB database 尝试实现本人的Alpha因子和策略回测。

附件

pandas代码:

from time import timeimport pandas as pdimport numpy as npfrom scipy.stats import rankdatadef rank(df):    return df.rank(pct=True)def decay_linear(df, period=10):    if df.isnull().values.any():        df.fillna(method='ffill', inplace=True)        df.fillna(method='bfill', inplace=True)        df.fillna(value=0, inplace=True)    na_lwma = np.zeros_like(df)    na_lwma[:period, :] = df.iloc[:period, :]    na_series = df.as_matrix()    divisor = period * (period + 1) / 2    y = (np.arange(period) + 1) * 1.0 / divisor    # Estimate the actual lwma with the actual close.    # The backtest engine should assure to be snooping bias free.    for row in range(period - 1, df.shape[0]):        x = na_series[row - period + 1: row + 1, :]        na_lwma[row, :] = (np.dot(x.T, y))    return pd.DataFrame(na_lwma, index=df.index, columns=['CLOSE'])def rolling_rank(na):    return rankdata(na)[-1]def ts_rank(df, window=10):    return df.rolling(window).apply(rolling_rank)def ts_argmin(df, window=10):    return df.rolling(window).apply(np.argmin) + 1def correlation(x, y, window):    return x.rolling(window).corr(y)def decay7(df):    return rank(decay_linear(correlation(df.vwap, df.adv5, 5).to_frame(), 7).CLOSE)def decay8(df):    return rank(decay_linear(ts_rank(ts_argmin(correlation(rank(df.open), rank(df.adv15), 21), 9), 7).to_frame(), 8).CLOSE)def alpha098(df):    return (decay7(df) - decay8(df)).to_frame()path = 'your_path/USPrices.csv'df = pd.read_csv(path, parse_dates=[1])df = df[df.date.between('2007.01.01', '2016.12.31')]print("loaded")df["vwap"] = df["PRC"]df["open"] = df["PRC"] + np.random.random(len(df))df['adv5'] = df.groupby('PERMNO')['VOL'].transform(lambda x: x.rolling(5).mean())df['adv15'] = df.groupby('PERMNO')['VOL'].transform(lambda x: x.rolling(15).mean())df['rank_open'] = df.groupby('date')['open'].rank(method='min')df['rank_adv15'] = df.groupby('date')['adv15'].rank(method='min')print("start")start = time()df['A98'] = df.groupby('PERMNO').apply(alpha098)end = time()print(end - start)