爱游戏(ayx)中国官方网站

集团新闻

E星体育【华泰金工林晓明团队】舆情因子和BERT情感分类模型——华泰人工智能系列之三十七

发布日期:2023-05-01     浏览次数:

  E星体育随着国内量化投资的发展,挖掘另类数据中的增量信息逐渐受投资者关注。另类数据中一大类数据就是舆情文本数据。本文提取Wind金融新闻数据中的情感正负面标签构建新闻舆情因子,因子在沪深300内表现最好。进一步地,本文介绍了前沿的自然语言处理(NLP)模型BERT的原理和训练方法,并基于Wind的有标注金融新闻数据训练金融新闻情感分类模型,模型在正负不平衡样本上达到了很高的预测精度。最后,本文介绍了BERT模型可解释性工具LIT。通过LIT可分析文本中字符对于预测结果的重要性并帮助理解BERT的学习机制。

  本文基于Wind金融新闻数据,提取其中的情感正负面标签,构建日频的新闻舆情因子。2017年以来,因子在沪深300、中证500、全A股的平均覆盖率分别为84.41%,76.16%,63.03%,且覆盖率随时间推移逐渐上升。因子在沪深300成分股内表现最好,行业市值中性后RankIC均值为6.13%,IC_IR为0.42,分5层测试中TOP组合年化收益率为17.79%,多空组合夏普比率为1.66。因子在中证500成分股内表现次之,在全A股内则表现最差。

  近年来, NLP领域最前沿的研究成果是预训练模型BERT。模型首先使用大量无监督语料进行语言模型预训练,再使用少量标注语料进行微调来完成具体任务(如本文的金融新闻情感分类)。本文介绍了BERT的核心原理:Transformer和自注意力机制。随后,本文基于Wind的有标注金融新闻数据,使用BERT训练金融新闻情感分类模型。模型在正负不平衡样本上达到了很高的预测精度,样本外的准确率为0.9826,AUC为0.9746,精确率为0.9736,召回率为0.9744。

  BERT模型结构复杂且参数量庞大,本文借助Google发布的开源NLP模型可解释性工具LIT来打开BERT的黑箱,理解BERT的“思考过程”。LIT有两个重要模块:(1) Salience Maps模块,可分析输入文本中每个字符对于模型预测结果的重要性。例句中的结果显示,正面情感新闻中“同比预增”、“中标”等字符重要性较高,负面情感新闻中“风控”、“摘牌”、“减持”等字符重要性较高。说明BERT都能够较好地抓住文本中的关键词,E星体育从而做出较为准确的预测。(2) Attention模块,可分析注意力权重,从而帮助理解BERT的学习机制。

  风险提示:舆情因子的测试结果是历史表现的总结,存在失效的可能。本文使用的金融新闻数据只覆盖了部分新闻来源,构建的因子可能是有偏的。模型可解释性工具LIT可能存在过度简化的风险。

  自本文开始,我们将探索人工智能模型对于另类数据中信息的提取,从而帮助投资者更好地将另类数据运用到投资决策中。

  在投资领域,另类数据(Alternative Data)是指除了传统财务、量价信息之外的,能为投资决策提供增量信息的数据。随着传统投资数据中的信息被不断挖掘,从中获得增量Alpha的空间越来越小,于是投资者开始关注另类数据的使用。然而另类数据往往具有收集困难、非结构化等特点,具有一定的运用门槛。人工智能技术作为处理非结构化数据的利器,对另类数据中的信息提取起到了关键作用。

  另类数据中一大类数据就是舆情文本数据。随着互联网技术和金融产业的飞速发展,网络上金融新闻数据日益丰富。大量的金融新闻中都包含有对上市公司经营状况的正面或负面描述,对于股票定价来说,金融新闻中可能蕴含有传统投资数据之外的增量信息。因此,借助人工智能模型对金融新闻进行情感分析有助于投资决策。

  本文将对金融新闻数据的运用和自然语言处理模型进行详细介绍,主要包含以下内容:

  2.     介绍当前最前沿的自然语言处理模型BERT及其情感分类测试效果。

  对于金融新闻数据的获取,一方面可以使用网络爬虫自行爬取数据,另一方面也可从一些现有的第三方数据库中获取。简便起见,本文使用Wind底层数据库中的金融新闻数据,该数据有以下两个特点:

  2. 大量新闻已有正负面的情感标注。一方面,可通过标注好的新闻数据直接计算选股因子。另一方面,可利用标注好的新闻训练情感分析模型,从而可将模型运用到更多未标注的金融文本情感分析上。

  我们从Wind获取了2017年1月至2020年9月的金融新闻数据,该数据包括了新闻发布时间、新闻标题、新闻内容、新闻来源、新闻对应公司的股票代码和情感分类标签等内容。在运用于后续任务之前,需要对金融舆情数据进行预处理,步骤如下:

  2.     剔除行情类的新闻以及标题中含有“快讯”、“涨”、“跌”的新闻;

  4.     提取文本情感分类结果,将正面新闻打上标签1,将负面新闻打上标签0;

  5.     保留新闻发布时间、新闻来源、情感分类标签、股票代码和新闻文本五个字段。

  下图展示了数据时间范围内每日正面新闻与负面新闻数量的对比情况,可以看到在2017年至2019年,正面新闻的数量总体上要多于负面新闻,而在2019年之后,负面新闻的数量则远多于正面新闻。

  我们将2017年以来的新闻的标题进行分词并统计词频。图表3和图表4分别为正面新闻和负面新闻的标题词云(词云中字体越大说明词频越高)。正面新闻的标题中,“增长”、“增持”、“看好”、“改善”、“中标”等词出现次数较多。负面新闻的标题中,“减持”、“亏损”、“问询”、“辞职”、“担保”等词出现次数较多。

  图表5为2020年金融舆情数据的主要来源情况,Wind和格隆汇为最主要的来源。

  图表6展示了各成分股中新闻舆情因子的覆盖度,可见沪深300成分股内覆盖度最高,且随着时间的推移,各成分股的因子覆盖度也在逐渐上升。

  回归法是一种最常用的测试因子有效性的方法,具体做法是将第T期的因子暴露度向量与T+1期的股票收益向量进行线性回归,所得到的回归系数即为因子在期的因子收益率,同时还能得到该因子收益率在本期回归中的显著度水平——t值。在某截面期上的个股的因子暴露度(Factor Exposure)即指当前时刻个股在该因子上的因子值。第T期的回归模型具体表达式如下。

  1.   股票池:沪深300成分股、中证500成分股,全A股,剔除ST、PT股票,剔除每个截面期下一交易日停牌的股票。

  3.   截面期:每个交易日作为截面期计算因子值,与该截面期之后20个交易日内个股收益进行回归。

  5.   回归权重:由于普通最小二乘回归(OLS)可能会夸大小盘股的影响(因为小盘股的财务质量因子出现极端值概率较大,且小盘股数目很多,但占全市场的交易量比重较小),并且回归可能存在异方差性,故我们参考Barra手册,采用加权最小二乘回归(WLS),使用个股流通市值的平方根作为权重,此举也有利于消除异方差性。

  b)      t值序列绝对值大于2的占比——判断因子的显著性是否稳定;

  c)      t值序列均值——与a)结合,能判断因子t值正负方向是否稳定;

  处理之后的因子值。在实际计算中,使用Pearson 相关系数可能受因子极端值影响较大,使用Spearman秩相关系数则更稳健一些,这种方式下计算出来的IC一般称为Rank IC。IC值分析模型构建方法如下:

  2.      先将因子暴露度向量进行一定预处理(下文中会指明处理方式),再计算处理后的T期因子暴露度向量和T+1期股票收益向量的Spearman秩相关系数,作为T期因子Rank IC值。

  d)     Rank IC值序列大于零的占比——因子作用方向是否稳定。

  依照因子值对股票进行打分,构建投资组合回测,是最直观的衡量因子优劣的手段。分层测试法与回归法、IC值分析相比,能够发掘因子对收益预测的非线性规律。也即,若存在一个因子分层测试结果显示,其Top组和Bottom组的绩效长期稳定地差于Middle组,则该因子对收益预测存在稳定的非线性规律,但在回归法和IC值分析过程中很可能被判定为无效因子。分层测试模型构建方法如下:

  2.      换仓:在每个截面期核算因子值,构建分层组合,在截面期下一个交易日按当日收盘价换仓,交易费用默认为单边0.2%。

  3.      分层方法:先将因子暴露度向量进行一定预处理(下文中会指明处理方式),将股票池内所有个股按处理后的因子值从大到小进行排序,等分N层,每层内部的个股等权重配置。当个股总数目无法被N整除时采用任一种近似方法处理均可,实际上对分层组合的回测结果影响很小。分层测试中的基准组合为股票池内所有股票的等权组合。

  图表7~图表9展示了新闻舆情因子的回归法和IC值分析法结果。可知新闻舆情因子在沪深300成分股内表现最好,在中证500成分股内表现次之,在全A股内则表现最差。

  图表10~图表12展示了新闻舆情因子的分层测试结果。可知新闻舆情因子在沪深300成分股内表现最好,在中证500成分股内表现次之,在全A股内则表现最差。在沪深300成分股内因子多头的表现也不太稳定,2018年出现了持续的回撤。

  本章我们基于Wind金融新闻数据,使用简单的方法构建了新闻舆情因子,因子在沪深300成分股内覆盖度最高,表现最好。

  Wind提供的金融新闻数据只覆盖了部分新闻来源,因此我们构建的因子可能是有偏的。为了丰富样本,可利用现有的新闻数据训练面向金融领域的文本情感分析模型,对更多的未标注文本预测情感得分,近年来飞速发展的自然语言处理模型使之成为可能,本文接下来将介绍基于BERT的自然语言处理模型。

  NLP(Natural Language Process,自然语言处理)是人工智能的子领域,专注于人机交互和自然语言数据的处理和分析。近年来,NLP领域最激动人心的成果莫过于预训练自然语言模型,图表13回顾了近年来预训练自然语言模型的发展情况。预训练自然语言模型的开创了NLP研究的新范式,即首先使用大量无监督语料进行语言模型预训练(Pre-training),再使用少量标注语料进行微调(Fine-tuning)来完成具体NLP任务(文本分类、序列标注、句间关系判断和机器阅读理解等)。近年来NLP预训练语言模型呈现出了爆发式的发展,形成了Google的BERT系列和OpenAI的GPT系列为代表的模型。本文主要介绍基于BERT的金融新闻情感分类。

  1.     预训练:通过多种预训练任务,从海量文本数据中学习字符级、词语级、语句级和语句间关系的特征。

  2.     微调:在预训练完成的模型基础之上,为具体的下游任务(如文本情感分类,序列标注等)定制和添加一层输出层,并运用下游任务的数据对模型进行微调,从而为各种自然语言处理任务生成预测精度更高的模型。

  BERT的预训练通过同时进行Masked LM和 NSP两个预训练任务,从海量文本数据中学习字符级、词语级、语句级和语句间关系的特征。在预训练时会将同一语料多次输入到模型中,但每次投入时都会经过进行不同形式的预处理,使得同一语料被充分利用。对于一般用户来说,可从互联网上下载已经预训练好的模型直接微调,无需自己做预训练,这体现出了BERT的便捷之处。

  Masked Language Model(MLM)是指随机从输入语料上遮盖掉一些字符,然后训练模型去预测被盖住的字符。正如我们在做完形填空时,我们会反复阅读空格处的上下文以进行推理一般,MLM通过这种方式使得模型能够双向地记住字符的上下文,从而学习语句间的双向关系。

  以输入语料“证券大涨带动做多情绪升温”为例,BERT在进行MLM预训练任务时,输入语料会发生下述三种变化:

  1.     有80%的概率输入语料会变为“证券大涨带动做多情绪[mask]”。[mask]字符代表着“升温”被遮盖住,需要BERT模型对“升温”进行预测;

  2.     有10%的概率输入语料会变为“证券大涨带动做多情绪波动”,即将“升温”替换为其他句子中的任意一个词语,此处为“波动”;

  之所以会有第2种和第3种变化,是因为在后续的微调中[mask]字符不会真正出现,故MLM通过这种方式来提醒BERT该字符是一种噪声,使得模型能够尽量减小[mask]字符带来的不利影响。

  Next Sentence Prediction(NSP)完成的任务为判断一个语句是否是另一语句的下一语句,并输出“是”与“否”。许多NLP任务,例如本研究报告的金融舆情分析,都需要模型能够理解句子之间的关系,而BERT正是通过这个任务来学习的。在进行NSP预训练任务时,BERT会选取一半的训练数据为连续的句对,另一半则为不连续的句对,随后BERT在这些数据上进行有监督训练,从而学习到句子之间的关系。

  同样以输入语料“证券大涨带动做多情绪升温”为例,BERT在进行NSP预训练任务时,会以50%的概率分别构造以下训练数据:

  2.    输入:[CLS]证券大涨带动做多情绪升温 [SEP] 新型冠状病毒肺炎疫情在全球肆意蔓延 [SEP]

  在BERT完成预训练之后,可根据后续任务的具体需求对BERT微调,即可将训练成果应用于特定的任务情境。就本研究报告的金融舆情分析任务而言,由于 [CLS]字符(图表16中的C)储存的是语句与分类有关的信息,故只需在BERT模型的最顶层添加一个Softmax分类层,并以[CLS]字符的输出信息作为分类层的输入,即可得到BERT对该语句的情感分类结果。然后,再使用带有情感标注的金融新闻微调BERT,就可训练出针对金融新闻预测精度更高的模型。

  2.   自注意力机制:Transformer中使用了多头自注意力机制(multi-head self-attention)来捕捉自然语言中的语义结构。自注意力机制本质上是一种基于向量内积的特征提取方法,特别适合提取自然语言中语义相似性的特征。

  1.       利用注意力机制使得任意两个字符直接互通,无视它们之间的方向和距离,解决以RNN为结构带来的长距离依赖问题,从而通过上下文更好地学习文本的语义表示。

  2.       Transformer有利于进行并行化计算,大大提高模型训练的效率。

  3.       通过注意力机制可以针对性地削弱Masked LM任务中mask标记的权重,以降低mask标记对模型训练的不利影响。

  基于Transofrmer的BERT网络架构如图表18所示,图中的一个“ECO”对应一个Transformer Block。BERT模型训练时,将文本经过预处理生成的张量(input tensor)输入模型进行训练。文本的预处理过程包含较为复杂的步骤,详细过程请参见附录1。

  接下来我们介绍Transformer中的多头自注意力机制(multi-head self-attention)。假设一个语言模型准备分析以下这句话:“猎豹没有追上这只鹿,因为它跑得太快了。”现在的问题是,这句话里的“它”指的是什么?是猎豹还是鹿?对于人类来说,答案是显而易见的,但对于一个模型来说可能并不是这么容易。注意力机制的作用就在于,让模型模仿人类的阅读习惯,在分析一句话的时候,有选择性的关注上下文的重点部分,从而提高模型完成任务的准确性。总的来说,注意力机制通过充分利用句子中其他词语的信息,为当前词语产生一个更好的语义编码。

  注意力机制类似于查询的过程,其使用了 Key、Value、Query 三个特征向量来计算分配给每个词的注意力权重。输入语句中的每个词由一系列成对的(Key, Value)组成,而Query则代表着目标语句中的词语,即模型的学习目标。通过计算目标语句的Query和每个Key的相似度,可以得到每个Key对应的Value的权重,因为Value代表着当前的词语,E星体育所以该权重代表了当前词语的重要性。最后,将每个Value进行加权求和,就可以得到语句的语义编码。

  在Transformer的自注意力机制中,我们有Key=Value=Query,这样做的好处是可以将注意力机制运用到一个句子的内部,将输入语句本身作为学习目标,使得模型能够学习到句子内部词语的依赖关系,捕捉句子的内部结构。接下来,我们结合公式来理解自注意力机制的计算过程。假设现在有一个输入语句 X,首先通过线性变换得到Query、Key和Value的向量序列Q,K和V:

  我们以句子“证券大涨带动做多情绪升温”为例,说明其前三个字符的自注意力计算流程。前三个字符经过预处理编码后可得向量X1,X2,X3,对其做线性变换后得到K,Q,V向量。图表19展示了使用Q2作为查询向量的子注意力计算流程。针对句子中的每个字符的向量,都重复图表19中的过程,就可得到整个句子的注意力输出序列。

  BERT在自注意力机制的基础上,采用了多头自注意力(multi-head self-attention)机制,具体做法是针对文本进行多次注意力运算,在把运算结果合并起来,即得到多个 “注意力头”的集成结果。这可以让模型关注到语句不同位置的信息,也可通过不同注意力头的集成缓解过拟合。具体实现请参见附录2。

  本章基于已有情感标注的Wind金融新闻数据,测试BERT模型在金融情感分类任务的表现。

  3.     剔除行情类的新闻以及标题中含有“快讯”、“涨”、“跌”的新闻;

  5.     提取文本情感分类结果,将正面新闻打上标签1,将负面新闻打上标签0;

  6.     样本数量总共有125513条,其中正面新闻占比18.13%。按照时间先后分别划分为训练集、验证集和测试集,划分比例为4:1:1。

  本文使用Pytorch版本的RoBERTa-tiny-clue模型,模型下载地址为:提取码:8qvb。训练时模型的主要参数如下:

  图表22展示了BERT训练过程中在验证集上的表现,横轴为训练的batch数目。可见,模型在5000个batch之内就已达到了较好的预测效果,大约在30000个batch时模型在验证集上达到最优表现。

  图表23为BERT在测试集的表现。虽然数据的正负标签样本数量很不平衡,模型在测试集上的表现和验证集差距很小,具有很高的预测精度。

  Language Interpretability Tool (LIT)是一款由Google发布的开源NLP模型可解释性工具(GitHub地址:,LIT能够将NLP模型训练以及预测的过程可视化,使得NLP模型不再是一个“黑箱”。LIT主要关注的问题包括:模型预测的效果如何?模型在预测时重点关注哪些词语?语句内部以及之间的注意力关系如何?LIT通过将各个分析模块集成到一个基于浏览器的界面中,使得用户可以快速、便捷地对NLP模型的表现进行可视化分析,下图展示了LIT的用户界面以及部分功能。

  LIT较为重要的模块为Salience Maps模块和Attention模块。接下来我们对这两个模块进行详细介绍。其他模块的介绍请参见LIT项目官方文档。

  Salience Maps模块展示的是输入文本中的每个字符对于模型预测结果的重要性。E星体育通过运用局部梯度(local gradients)和LIME方法,每个字符都会得出0到1之间的权重,权重越大字符的颜色越深,代表着该字符对于模型预测结果有着较为显著的影响。接下来,我们结合两条正面新闻和两条负面新闻,来观察BERT模型在预测文本情感时重点关注哪些字符。

  首先分析两条正面新闻。由下图可知,在预测正面新闻1时,BERT模型认为“同比预增”等字符重要性较高;在预测正面新闻2时,BERT模型认为“中标”等字符重要性较高。

  接下来分析两条负面新闻。由下图可知,在预测负面新闻1时,BERT模型认为“摘牌”、“风控”等字符重要性较高;在预测负面新闻2时,BERT模型认为“减持”、“风控”等字符重要性较高。

  由上述分析可以发现,本报告所构建的BERT模型无论在预测正面新闻还是负面新闻时,都能够较好地抓住文本中的关键词,从而做出较为准确的预测。

  Attention模块可以展示BERT模型中每层的注意力头学习到的注意力权重,线条的颜色越深代表着注意力权重越大。下图展示了BERT模型第3层中第3个和第6个注意力头的注意力权重情况,在不同的注意力头中,注意力权重分布不同。从图表30可看出,相邻字符间注意力权重较大,语义上有相似性,这也是合乎情理的。

  随着国内量化投资的发展,挖掘另类数据中的增量信息逐渐受投资者关注。另类数据中一大类数据就是舆情文本数据。本文提取Wind金融新闻数据中的情感正负面标签构建新闻舆情因子,因子在沪深300内表现最好。进一步地,本文介绍了前沿的自然语言处理(NLP)模型BERT的原理和训练方法,并基于Wind的有标注金融新闻数据训练金融新闻情感分类模型,模型在正负不平衡样本上达到了很高的预测精度。最后,本文介绍了BERT模型可解释性工具LIT。通过LIT可分析文本中字符对于预测结果的重要性并帮助理解BERT的学习机制。

  本文基于Wind金融新闻数据,提取其中的情感正负面标签,构建日频的新闻舆情因子。2017年以来,因子在沪深300、中证500、全A股的平均覆盖率分别为84.41%,76.16%,63.03%,且覆盖率随时间推移逐渐上升。因子在沪深300成分股内表现最好,行业市值中性后RankIC均值为6.13%,IC_IR为0.42,分5层测试中TOP组合年化收益率为17.79%,多空组合夏普比率为1.66。因子在中证500成分股内表现次之,在全A股内则表现最差。

  近年来, NLP领域最前沿的研究成果是预训练模型BERT。模型首先使用大量无监督语料进行语言模型预训练,再使用少量标注语料进行微调来完成具体任务(如本文的金融新闻情感分类)。本文介绍了BERT的核心原理:Transformer和自注意力机制。随后,本文基于Wind的有标注金融新闻数据,使用BERT训练金融新闻情感分类模型。模型在正负不平衡样本上达到了很高的预测精度,样本外的准确率为0.9826,AUC为0.9746,精确率为0.9736,召回率为0.9744。

  BERT模型结构复杂且参数量庞大,本文借助Google发布的开源NLP模型可解释性工具LIT来打开BERT的黑箱,理解BERT的“思考过程”。LIT有两个重要模块:(1) Salience Maps模块,可分析输入文本中每个字符对于模型预测结果的重要性。例句中的结果显示,E星体育正面情感新闻中“同比预增”、“中标”等字符重要性较高,负面情感新闻中“风控”、“摘牌”、“减持”等字符重要性较高。说明BERT都能够较好地抓住文本中的关键词,从而做出较为准确的预测。(2) Attention模块,可分析注意力权重,从而帮助理解BERT的学习机制。

  舆情因子的测试结果是历史表现的总结,存在失效的可能。本文使用的金融新闻数据只覆盖了部分新闻来源,构建的因子可能是有偏的。模型可解释性工具LIT可能存在过度简化的风险。

  文本在输入BERT模型之前,会经过多步的预处理编码成张量,处理流程如图表31所示。

  本公众平台不是华泰证券研究所官方订阅平台。相关观点或信息请以华泰证券官方公众平台为准。根据《证券期货投资者适当性管理办法》的相关要求,E星体育本公众号内容仅面向华泰证券客户中的专业投资者,请勿对本公众号内容进行任何形式的转发。若您并非华泰证券客户中的专业投资者,请取消关注本公众号,不再订阅、接收或使用本公众号中的内容。因本公众号难以设置访问权限,若给您造成不便,烦请谅解!本公众号旨在沟通研究信息,交流研究经验,华泰证券不因任何订阅本公众号的行为而将订阅者视为华泰证券的客户。

  本公众号研究报告有关内容摘编自已经发布的研究报告的,若因对报告的摘编而产生歧义,应以报告发布当日的完整内容为准。如需了解详细内容,请具体参见华泰证券所发布的完整版报告。

  本公众号内容基于作者认为可靠的、已公开的信息编制,但作者对该等信息的准确性及完整性不作任何保证,也不对证券价格的涨跌或市场走势作确定性判断。本公众号所载的意见、评估及预测仅反映发布当日的观点和判断。在不同时期,华泰证券可能会发出与本公众号所载意见、评估及预测不一致的研究报告。

  在任何情况下,本公众号中的信息或所表述的意见均不构成对客户私人投资建议。订阅人不应单独依靠本订阅号中的信息而取代自身独立的判断,应自主做出投资决策并自行承担投资风险。普通投资者若使用本资料,有可能会因缺乏解读服务而对内容产生理解上的歧义,进而造成投资损失。对依据或者使用本公众号内容所造成的一切后果,华泰证券及作者均不承担任何法律责任。

  本公众号版权仅为华泰证券股份有限公司所有,未经公司书面许可,任何机构或个人不得以翻版、复制、发表、引用或再次分发他人等任何形式侵犯本公众号发布的所有内容的版权。如因侵权行为给华泰证券造成任何直接或间接的损失,华泰证券保留追究一切法律责任的权利。本公司具有中国证监会核准的“证券投资咨询”业务资格,经营许可证编号为:11J。

  【华泰金工林晓明团队】2020年中国市场量化资产配置年度观点——周期归来、机会重生,顾短也兼长20200121

  【华泰金工林晓明团队】量化资产配置2020年度观点——小周期争明日,大周期赢未来20200116

  【华泰金工林晓明团队】风险预算模型如何度量风险更有效-改进风险度量方式稳定提升风险模型表现的方法

  【华泰金工林晓明团队】周期双底存不确定性宜防守待趋势——短周期底部拐头机会渐增,待趋势明朗把握或更大20191022

  【华泰金工林晓明团队】二十年一轮回的黄金投资大周期——黄金的三周期定价逻辑与组合配置、投资机会分析20190826

  【华泰金工林晓明团队】如何有效判断真正的周期拐点?——定量测度实际周期长度提升市场拐点判准概率

  【华泰金工林晓明团队】二十载昔日重现,三四年周期轮回——2019年中国与全球市场量化资产配置年度观点(下)

  【华泰金工林晓明团队】二十载昔日重现,三四年周期轮回——2019年中国与全球市场量化资产配置年度观点(上)

  【华泰金工林晓明团队】周期理论与机器学习资产收益预测——华泰金工市场周期与资产配置研究

  【华泰金工林晓明团队】2018中国与全球市场的机会、风险 · 年度策略报告(上)

  【华泰金工林晓明团队】基钦周期的量化测度与历史规律 · 华泰金工周期系列研究

  【华泰金工林晓明团队】周期三因子定价与资产配置模型(四)——华泰金工周期系列研究

  【华泰金工林晓明团队】周期三因子定价与资产配置模型(三)——华泰金工周期系列研究

  【华泰金工林晓明团队】周期三因子定价与资产配置模型(二)——华泰金工周期系列研究

  【华泰金工林晓明团队】周期三因子定价与资产配置模型(一)——华泰金工周期系列研究

  【华泰金工林晓明团队】华泰金工周期研究系列 · 基于DDM模型的板块轮动探索

  【华泰金工林晓明团队】金融经济系统周期的确定(下)——华泰金工周期系列研究

  【华泰金工林晓明团队】金融经济系统周期的确定(上)——华泰金工周期系列研究

  【华泰金工林晓明团队】企业间力的产生、传播和作用效果——华泰周期起源系列研究之八

  【华泰金工林晓明团队】耦合振子同步的藏本模型——华泰周期起源系列研究之七

  【华泰金工林晓明团队】周期在供应链管理模型的实证——华泰周期起源系列研究之六

  【华泰金工林晓明团队】不确定性与缓冲机制——华泰周期起源系列研究报告之五

  【华泰金工林晓明团队】周期是矛盾双方稳定共存的结果——华泰周期起源系列研究之四

  【华泰金工林晓明团队】周期是不确定性条件下的稳态——华泰周期起源系列研究之三

  【华泰金工林晓明团队】周期趋同现象的动力学系统模型——华泰周期起源系列研究之二

  【华泰金工林晓明团队】从微观同步到宏观周期——华泰周期起源系列研究报告之一

  【华泰金工林晓明团队】养老目标基金的中国市场开发流程--目标日期基金与目标风险基金产品设计研究

  【华泰金工】生命周期基金Glide Path开发实例——华泰FOF与金融创新产品系列研究报告之一

  【华泰金工林晓明团队】市值因子收益与经济结构的关系——华泰因子周期研究系列之三

  【华泰金工林晓明团队】周期视角下的因子投资时钟--华泰因子周期研究系列之二

  【华泰金工林晓明团队】波动率与换手率构造牛熊指标——华泰金工量化择时系列

  【华泰金工林晓明团队】行业全景画像:投入产出表视角——华泰中观基本面轮动系列之五

  【华泰金工林晓明团队】行业全景画像:改进杜邦拆解视角——华泰中观基本面轮动系列之四

  【华泰金工林晓明团队】行业全景画像:风格因子视角 ——华泰中观基本面轮动系列之三

  【华泰金工林晓明团队】行业全景画像:宏观因子视角 ——华泰中观基本面轮动系列之二

  【华泰金工林晓明团队】确立研究对象:行业拆分与聚类——华泰中观基本面轮动系列之一

  【华泰金工林晓明团队】拥挤度指标在行业配置中的应用——华泰行业轮动系列报告之十二

  【华泰金工林晓明团队】基于投入产出表的产业链分析 ——华泰行业轮动系列报告之十一

  【华泰金工林晓明团队】不同协方差估计方法对比分析——华泰行业轮动系列报告之十

  【华泰金工林晓明团队】景气度指标在行业配置中的应用——华泰行业轮动系列报告之九

  【华泰金工林晓明团队】再探周期视角下的资产轮动——华泰行业轮动系列报告之八

  【华泰金工林晓明团队】“华泰周期轮动”基金组合改进版——华泰行业轮动系列报告之七

  【华泰金工林晓明团队】“华泰周期轮动”基金组合构建——华泰行业轮动系列之六

  【华泰金工林晓明团队】估值因子在行业配置中的应用——华泰行业轮动系列报告之五

  【华泰金工林晓明团队】动量增强因子在行业配置中的应用——华泰行业轮动系列报告之四

  【华泰金工林晓明团队】财务质量因子在行业配置中的应用——华泰行业轮动系列报告之三

  【华泰金工林晓明团队】周期视角下的行业轮动实证分析——华泰行业轮动系列之二

  【华泰金工林晓明团队】基于通用回归模型的行业轮动策略——华泰行业轮动系列之一

  【华泰金工林晓明团队】重剑无锋:低波动 Smart Beta——华泰 Smart Beta 系列之四

  【华泰金工林晓明团队】投资优质股票:红利类Smart Beta——华泰Smart Beta系列之三

  【华泰金工林晓明团队】博观约取:价值和成长Smart Beta——华泰Smart Beta系列之二

  【华泰金工林晓明团队】Smart Beta:乘风破浪趁此时——华泰Smart Beta系列之一

  【华泰金工林晓明团队】Smartbeta在资产配置中的优势——华泰金工Smartbeta专题研究之一

  【华泰金工林晓明团队】华泰单因子测试之历史分位数因子——华泰多因子系列之十三

  【华泰金工林晓明团队】桑土之防:结构化多因子风险模型——华泰多因子系列之十二

  【华泰金工林晓明团队】华泰单因子测试之海量技术因子——华泰多因子系列之十一

  【华泰金工林晓明团队】华泰单因子测试之一致预期因子 ——华泰多因子系列之九

  【华泰金工林晓明团队】华泰单因子测试之财务质量因子——华泰多因子系列之八

  【华泰金工林晓明团队】华泰单因子测试之资金流向因子——华泰多因子系列之七

  【华泰金工林晓明团队】华泰单因子测试之波动率类因子——华泰多因子系列之六

  【华泰金工林晓明团队】华泰单因子测试之换手率类因子——华泰多因子系列之五

  【华泰金工林晓明团队】红利因子的有效性研究——华泰红利指数与红利因子系列研究报告之二

  【华泰金工林晓明团队】相对生成对抗网络RGAN实证——华泰人工智能系列之三十六

  【华泰金工林晓明团队】WGAN应用于金融时间序列生成——华泰人工智能系列之三十五

  【华泰金工林晓明团队】再探AlphaNet:结构和特征优化——华泰人工智能系列之三十四

  【华泰金工林晓明团队】数据模式探索:无监督学习案例——华泰人工智能系列之三十三

  【华泰金工林晓明团队】AlphaNet:因子挖掘神经网络——华泰人工智能系列之三十二

  【华泰金工林晓明团队】生成对抗网络GAN初探——华泰人工智能系列之三十一

  【华泰金工林晓明团队】从关联到逻辑:因果推断初探——华泰人工智能系列之三十

  【华泰金工林晓明团队】基于量价的人工智能选股体系概览——华泰人工智能系列之二十八

  【华泰金工林晓明团队】揭开机器学习模型的“黑箱” ——华泰人工智能系列之二十七

  【华泰金工林晓明团队】遗传规划在CTA信号挖掘中的应用——华泰人工智能系列之二十六

  【华泰金工林晓明团队】市场弱有效性检验与择时战场选择——华泰人工智能系列之二十五

  【华泰金工林晓明团队】投石问路:技术分析可靠否?——华泰人工智能系列之二十四

  【华泰金工林晓明团队】再探基于遗传规划的选股因子挖掘——华泰人工智能系列之二十三

  【华泰金工林晓明团队】基于CSCV框架的回测过拟合概率——华泰人工智能系列之二十二

  【华泰金工林晓明团队】基于遗传规划的选股因子挖掘——华泰人工智能系列之二十一

  【华泰金工林晓明团队】必然中的偶然:机器学习中的随机数——华泰人工智能系列之二十

  【华泰金工林晓明团队】偶然中的必然:重采样技术检验过拟合——华泰人工智能系列之十九

  【华泰金工林晓明团队】机器学习选股模型的调仓频率实证——华泰人工智能系列之十八

  【华泰金工林晓明团队】人工智能选股之数据标注方法实证——华泰人工智能系列之十七

  【华泰金工林晓明团队】再论时序交叉验证对抗过拟合——华泰人工智能系列之十六

  【华泰金工林晓明团队】人工智能选股之卷积神经网络——华泰人工智能系列之十五

  【华泰金工林晓明团队】人工智能选股之损失函数的改进——华泰人工智能系列之十三

  【华泰金工林晓明团队】人工智能选股之Stacking集成学习——华泰人工智能系列之十一

  【华泰金工林晓明团队】宏观周期指标应用于随机森林选股——华泰人工智能系列之十

  【华泰金工林晓明团队】人工智能选股之循环神经网络——华泰人工智能系列之九

  【华泰金工林晓明团队】人工智能选股之全连接神经网络——华泰人工智能系列之八

  【华泰金工林晓明团队】人工智能选股之Python实战——华泰人工智能系列之七

  【华泰金工林晓明团队】人工智能选股之Boosting模型——华泰人工智能系列之六

  【华泰金工林晓明团队】人工智能选股之随机森林模型——华泰人工智能系列之五

  【华泰金工林晓明团队】人工智能选股之朴素贝叶斯模型——华泰人工智能系列之四

  【华泰金工林晓明团队】人工智能选股之支持向量机模型— —华泰人工智能系列之三

  【华泰金工林晓明团队】人工智能选股之广义线性模型——华泰人工智能系列之二

  【华泰金工林晓明团队】再探回归法测算基金持股仓位——华泰基金仓位分析专题报告

  【华泰金工林晓明团队】指数增强方法汇总及实例——量化多因子指数增强策略实证

  【华泰金工林晓明团队】华泰价值选股之相对市盈率港股模型——相对市盈率港股通模型实证研究

  【华泰金工林晓明团队】华泰价值选股之现金流因子研究——现金流因子选股策略实证研究

  【华泰金工林晓明团队】华泰基本面选股之低市收率模型——小费雪选股法 A 股实证研究

  【华泰金工林晓明团队】华泰基本面选股之高股息率模型之奥轩尼斯选股法A股实证研究

  【华泰金工林晓明团队】布林带与股息率择时定投模型——基金定投系列专题研究报告之四