近年来机器学习在各个金融畛域各个方面均有利用,其实金融畛域的场景是很适宜强化学习利用的,然而因为金融畛域真金白银的,以目前强化学习的学习效率预计违心尝试的人不多,然而并不障碍咱们学习和理解这方面的常识。
Reinforcement learning in market games(arxiv 0710.0114)
Edward W. Piotrowski, Jan Sladkowski, Anna Szczypinska
金融市场投资就像许多的多人游戏一样——必须与其余代理人互动以实现本人指标。其中就包含与在市场上的流动间接相干的因素,和影响人类决策及其作为投资者体现的其余方面。如果辨别所有子博弈通常是超出心愿和资源耗费的。在这篇论文中钻研了投资者如何面对许多不同的抉择、收集信息并在不理解游戏的残缺构造的状况下做出决策。论文将强化学习办法利用于市场信息实践模型 (ITMM)。尝试辨别第 i 个代理的一类博弈和可能的动作(策略)。任何代理都将整个游戏类划分为她 / 他认为子类,因而对给定的子类采纳雷同的策略。划分规范基于利润和老本剖析。类比类和策略通过学习过程在各个阶段更新。
Dreaming machine learning: Lipschitz extensions for reinforcement learning on financial markets(arXiv 1909.03278)
J. M. Calabuig, H. Falciani, E. A. Sánchez-Pérez
论文思考了一种用于在金融市场框架内构建新的强化学习模型的准度量拓扑构造。它基于在度量空间中定义的处分函数的 Lipschitz 型扩大。具体来说,McShane 和 Whitney 被用于处分函数,该函数由给定工夫投资决策产生的收益的总评估定义。将度量定义为欧几里得间隔和角度度量重量的线性组合。从工夫距离开始的所有对于零碎演变的信息都被用来反对处分函数的扩大,并且通过增加一些人为产生的状态来丰盛这个数据集。论文中说到,这种办法的次要新鲜之处在于产生了更多状态(论文中称之为“dreams”)以丰盛学习的形式。应用代表金融市场演变的动静零碎的一些已知状态,应用现有的技术能够通过插入实在状态和引入一些随机变量来模仿新状态。这些新状态用于为学习算法提供训练数据,该算法的目标是通过遵循典型的强化学习计划来改良投资策略。
Automatic Financial Trading Agent for Low-risk Portfolio Management using Deep Reinforcement Learning(arXiv 1909.03278)
自主交易代理是人工智能解决资本市场投资组合治理问题最沉闷的钻研畛域之一。投资组合治理问题的两个次要指标是最大化利润和克制危险。大多数解决这个问题的办法只思考最大化回报。然而这篇论文提出了一种基于深度强化学习的交易代理,它在治理投资组合时,不仅思考利润最大化,还思考危险束缚。论文中还提出了一个新的指标策略,让交易代理学会更偏差低危险的口头。这个新的指标策略能够通过超参数来调整最优行为的贪婪水平来升高口头的危险。论文所提出的交易代理通过加密货币市场的数据来验证性能,因为加密货币市场是测试交易代理的最佳试验场,因为每分钟积攒的数据量微小,市场波动性极大。作为试验后果,在测试期间,代理实现了 1800% 的回报,并提供了现有办法中危险最小的投资策略。并且在另一个试验表明,即便市场稳定很大或训练周期很短,交易的代理也能放弃持重的泛化性能。
Application of deep reinforcement learning for Indian stock trading automation(arXiv 2106.16088)
Author : Supriya Bajpai
在股票交易中,特征提取和交易策略设计是利用机器学习技术实现长期收益的两项重要工作。通过获取交易信号来设计交易策略能够实现交易收益最大化。论文中将深度强化学习实践利用于印度市场的股票交易策略和投资决策。利用三个经典的深度强化学习模型 Deep Q-Network、Double Deep Q-Network 和 Dueling Double Deep Q-Network 对 10 个印度股票数据集进行了零碎的试验。并对模型的性能进行了评估和比拟
Robo-Advising: Enhancing Investment with Inverse Optimization and Deep ReinforcementLearning(arXiv 2105.09264)
Author : Haoran Wang, Shi Yu
机器学习 (ML) 已被金融行业视为一种弱小的工具,在投资治理等各个领域都有显著的利用。论文提出了一个全周期数据驱动的投资机器人征询框架,由两个 ML 代理组成。第一代理是一种逆投资组合优化代理,它利用在线逆优化办法间接从投资者的历史配置数据中推断投资者的危险偏好和预期收益。第二个是深度强化学习 (deep reinforcement learning, RL) 代理,它将所推断的预期收益序列聚合在一起,造成一个新的多周期均值 - 方差投资组合优化问题,这样就能够应用深度强化学习办法进行求解。论文中的投资打算利用于 2016 年 4 月 1 日至 2021 年 2 月 1 日的理论市场数据,体现继续优于代表总体市场最优配置的规范普尔 500 基准投资组合。这种优异体现可能归因于多周期布局 (绝对于单周期布局) 和数据驱动的 RL 办法(绝对于经典预计办法)。
https://www.overfit.cn/post/f8b15e23b8b14a89b56c3f3e4ed503cb
作者:Monodeep .J.Mukherjee