2020/05/13

P Quant 和 Q Quant 到底哪个是未来?

出處: https://www.zhihu.com/question/24820388

q quant来自于q measure,也就是风险中性测度。资产定价理论中最基本的原理,就是风险中性测度对应着无套利,无套利对应着可以完美对冲各种风险。所以q quant主要是协助structuring desk和exotic trading desk来做衍生品定价。银行卖那些复杂的衍生品是为了赚手续费(1%左右),并不是与客户对赌。在q quant的协助下,银行把衍生品卖出去,对冲掉所有风险,收客户一笔手续费,这才是sell-side最本职的工作。

而p quant来自于physical prob measure,也就是“预测未来走势”,常见于买方和卖方的自营交易部。所谓预测未来走势,无非就是寻找under-priced risks/over-priced risks(不好意思不会翻译),也就是所谓的“找alpha”,因此p quant也叫alpha quant。

所以,q quant做的是“如何不承担风险”。p quant做的是“承担哪些风险”。这两类quant的界限其实可以很不明显。举个例子,volatility trading做的就是对冲掉股票价格风险(q measure),预测未来波动率走势(p measure)。

哪类quant更有前途,要的是经济周期。所谓“乱世买黄金,盛世兴收藏”。那些奇奇怪怪的衍生品,由于收益率高,在市场流动性过剩的时候会很受欢迎,所以前段时间银行们招了不少structured product pricing quant。而p quant的表现,通过量化投资的对冲基金的收益率就可以看出来(去年不太好)。不过,q quant是cost centre,p quant是profit centre,这也就意味着两者的待遇必然不同。当然,发财得有前瞻性。。。。

作者:董可人
链接:https://www.zhihu.com/question/24820388/answer/29150204
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

武林史上,剑气之争向来难离恩怨情仇。这一次也不例外。




先来介绍一下本篇主角,Q宗与P宗。
Q是指风险中性测度。风险中性的意思主要是说历史数据不能帮助你预测未来的走势,所以你的决策是没有风险补偿的。这当然是一个非常虚幻的假设,但是由此而得的模型可以给出漂亮的数学性质,而且可以在缺乏数据的情况下得到一些结论,所以有一定的实际意义。涉及的数学技术主要是随机过程,偏微分方程之类。在数学派系里,这些显得相对高端,一般人概念里都是那些脑袋不太正常的人类捣鼓的玩意。




P是指真实概率测度。所谓真实,主要是说模型依赖的概率分布是从历史数据上估算出来的。严格来讲我个人不认为这种东西叫做“真实”,最多只能说是从真实数据上估算出来的,显然没有什么东西保证历史一定会重演(比如黑天鹅)。但是这个是目前大家公认的说法,所以咱们不较真。从定义可以看出这套方法主要依赖数据,数据量越大估算的效果越好。涉及的技术主要是时间序列(ARIMA,GARCH之类),Bayesian,以及现在流行的机器学习等方法。不难看出,为了倒腾数据,这套方法练到上层就要开始刷装备。在电子化时代这最终演化为拼机房的军备竞赛。




两者对比可以看出,Q重模型而轻数据,P则重数据而轻模型。当然两者也都要即有模型也有数据,但从应用上来讲,Q者是模型固定,用数据来精化模型的参数(calibration);而P者则可以有若干备选模型,由数据的计算结果来选择最佳的模型(estimation)。
这个区别也造成在业界的划分。Q可以让你在缺少数据的情况得出一些结论,从而可以凭空制造一些东西出来,所以卖方(投行)用来做衍生品定价,业务模式是开发新的衍生品出来卖出去。P则喜欢大数据量,这天然就是买方(Hedge Fund类)所需要的技术,因为他们本来就需要针对大量证券做出筛选和投资决策,业务是数据驱动的。
理清两者的区别后,就可以看出发展方向上的不同。本质上说,Q宗是一种制造业,大家比的就是造出更多更好的衍生品来卖,但如果生产出来的东西没人买,显然生意就做不下去。而P宗其实属于服务业,那些数据技术不会给你创造出什么新产品,而是通过对本来就存在的业务(比如投资决策)进行精细加工,来达到优化的目的(特别值得强调的是,量化的核心价值始终在于优化,绝非单纯追求所谓alpha者之超额收益。事实上,若你真能堪破此间真谛,牢牢把握住优化求精的思想,即使不关心alpha也足以让你在乱世中安身立命)。但如果大家都在既定条件下优化到了极限,显然也就不会再继续投入。
分析到这里可以看出,这两者的思路都有可取之处,从逻辑上讲都有继续发展的空间。以长远的眼光来看,很难分出高下。
但回顾历史,P宗一度因为走的是统计一派处于数学鄙视链底端的屌丝路线,手里的数据也实在不够看,很长时间里挺不受人待见的。




在那段非主流的日子里,生活挺心酸的。大家经常嘲笑他们搅来搅去就会弄点回归,算个均值,太没出息。手里的数(kou)据(liang)有限,没事只能发呆。




在那个洪荒的时代,也实在没什么好装备,练功只能靠山寨。




同一时段,Q派则充分发挥人脑优势,逼格逆天。华尔街上,精通此道的数学物理博士们一时风头无两,是各大行纷纷争抢的宠儿。主流金融机构都在热衷于开发各种复杂的衍生品,发挥到极致后可以把能卖的不能卖的都打包到一块,盘子越做越大,一派不尽长江滚滚来的势头。(丧心病狂的)他们甚至连诺奖都不放过。另外当年衍生品大行其道的时候,Q宗的定价能力甚至还可以用来寻找市面产品的错误定价,从而发现能直接盈利的套利机会。这一切给Q宗带来爆发式的增长。




但时来运转,进入新世纪,开始出现Q弱P强的趋势。这里面主要有两点原因。
第一是08年金融危机一来,已(zou)臻(huo)化(ru)境(mo)的Q宗搞出来的那些已经无人能看懂的衍生品贱贱地一把烧掉了大家的钱,让人们意识到这条路线的危险性。




08年在Q宗的心底留下一个挥之不去的烙印,华尔街上Q宗子弟尸横遍野,自此之后风光不再。更甚者,在当年辉煌的废墟之下,大量遗留下来的已经定型的Q类工作不再需要太多的数学分析,反而蜕变成相当机械性的体力活。而伴随着竞争者的涌入,定价错误的机会也一减再减。这一切成为了今日Q宗的梦魇。
但若透过现象看本质,你会发现人家的心法根基仍在,说不定哪一天就会上演绝地反攻。永远不要低估一个文艺青年追求理想的决心。




第二点,随着IT业接二连三的产业升级,个人电脑,互联网,到现在的智能手机,催生出能极其方便的处理海量数据的计算技术,美其名曰“大数(xing)据(zuo)技(suan)术(ming)”。这直接带来P宗迫切需要的装备升级。




同时金融业也开始推行电子化。交易所的电子化,以及自动化交易直至最近的高频交易,带来交易数据的极速增长。技(zhuang)术(bi)和数(mei)据(zi)二者兼具,P宗心中梦幻的舞台开始浮现,一举成为时代选择的新星。而在这个拼爹的新世纪,假人力者似乎注定只能在其背后叹息。




但不要忘了,天下武学本是一家。若执着于派系之分,终不免落入下乘。要想达至Quant最高境界,就必须要了解宇宙苍生。事实上,Q宗一派已然深谙此道。君不见各大藤校Q宗培训班早已明修暗渡引入P宗修习课程,正所谓蓦然回首,那人已在痴痴地等。此道亦应为P宗所用。武学正宗是为Q中有P,P中有Q,道法自然。




由是者,古老的数学家们用纸与笔推演的疯狂,在数字化时代化身为集成电路中奔驰的0与1。我相信时至今日,人们仍未能完全明了此间图景的全部可能。在新的时代,程序代码已经开始成为继数学之后的新生一代科学普适语言。硅基装备给碳基人类带来的,绝不仅仅是逼格与基情,更是希望之翼。




随着人们生产,收集,分析数据的能力大规模提升,我们眼前展开的是一个前所未有的数据时代。也许,在浪潮之后我们会发现这场数据盛宴并不一定能带来对世界本源的更深层认识,但是在这时代开端,无人知晓山的另一边是什么风景。好奇心的驱使已经足以使世人疯狂。问谁又能抵挡住名为可能性者的诱惑呢?
混沌已开,英雄将至。世纪新篇的主题词,是为梦想

出處: https://bigdatafinance.tw/index.php/component/content/article?id=166:quant-financial-modeling

作者:袁浩瀚
链接:https://www.zhihu.com/question/22221540/answer/22120516
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

首先要说明两点,一是我离开每天读paper的日子已经有些时间了,精准的旁征博引的能力急剧退化,所以引用的观点的来源,很可能出现谬误,请包涵;二是以下看法很多源自我自己的理解,因此很可能引起争议。

从Quantitative Modeling的角度来说,有两大主流的方向:Stochastic Calculus(随机微积分)Statistical Learning(统计学习)。这两个主流方向基本涵盖了你所有可能用到的技术——随机微积分,或者说金融数学,提供了各种衍生产品的风险估计基础,也是处理新型资产定价的常用方式;而统计学习,则包罗计量经济学、时间序列分析和各种机器学习方法。我个人比较喜欢用Q measure世界和P measure世界来指代这两种方法,因为统计学习主要在真实概率空间进行分析,而随机微积分在基于无套利假定而设立的Q概率空间进行分析。

好吧,我相信你已经晕了——为什么在真实概率空间外,还会有一个Q概率空间,这不是一下子可以说清楚的问题,我就给一个简单的例子,剩下的如果你还有兴趣可以再自己研究:
假设现在只有两种资产,一种是股票,一种是债券,假设一年后这个世界只有两种情景,一种是好市场,一种是坏市场,各自出现的概率是60%和40%。我们画一个表格,就有:

t=0 | t=1 Good (60%) | t=1 Bad (40%)
Stock 1 | 1.2 | 0.8
Bond 1 | 1.1 | 1.1

表格里面的数字代表价格,比如第一行表示股票今天1元,一年后在好的情况下变成1.2元,而坏的情况下变成0.8元;第二行因为债券是固定收益,两种请都是10%的收益。
那么在P概率空间(真实概率空间),股票的Expected Return就是:
[公式]
也就是4%,那么这不符合金融数学均衡思想,因为其期望收益和无风险回报不相等(10%)。所有Q measure下面的两种情况的概率应该是75%和25%,这样股票的回报就成了:
[公式]
这样满足了理论微观经济学的各种假设,你就可以基于此概率去定价一个期权了,或者其它更加复杂的衍生产品。

这套体系由Arrow在1965年建立,之后他也成为了诺奖得主。而基于这一体系诞生了Black Scholes(1973)期权定价公式,在很长一段时间内被业界奉为圭臬。

但是这一体系太理论化了,在实际做交易的时候会缺少指导意义。就好比Wolf of Wall Street里面,Can you sell the pen now,那支笔有理论价值,比如市场同类的价格是多少,成本是多少,不能偏差太多,不然就有套利,但是你的交易价格可能远远偏离这个价格,因为这一单取决于购买者的现实需求,而这或许可以从历史交易数据中得出,这就是统计学习方法可以应用的场景。

在业界呆了一段时间后,我开始重新思考这个问题——为什么1960到2000年大量的金融研究在随机微积分领域开展,而2000年后,大量的金融研究开始应用越来越复杂的计量经济学和机器学习方法。我个人的看法是——早期数据的缺失,使得数学建模——随机微积分成为唯一可行的方法,而2000年后数据的蓬勃发展,使得统计学习成为可能。要知道Fama在1970写有效市场理论市场的数据是Dow Jones里面30支股票的10年日交易数据,这是当时的大数据,而现在,所有股票的每单级别的数据也不罕见了,数据——信息驱动研究的变化,在每个领域都是一样。这不难解释为什么机器学习逐渐主流了——30年前没有数据,何来金融统计分析?

这两种方法(Q世界与P世界)在一定假设下可以得到相同的结果,比如你设定同样的无套利、经济人理性等条件,随机微积分与统计学习可以得到非常接近的期权定价。但是统计学习的好处是,你知道这个世界的不完美,你可以随意放松无套利和理性交易这些太过严格的假设,依然获得鲁棒性不错的模型。

那么在今天的Quant世界,这两者的应用是怎样的呢?做风险和定价的Quant,还是采用传统的随机微积分为纲领,这种方法算出来的价格被交易员用来作为交易和对冲的指导,但是交易员的报价还是根据自己的判断来进行;在山的另一边,做程序化做市(Automatic Market Making)、资产配置或者高频交易的Quant,无一例外的活动在P世界——基于大数据和先进的机器学习来发现交易机会。

是信息行业的发展重塑了整个金融研究,但这不意外——要知道数百年前就是提前获得的关于英法战争结果信息帮助了罗斯柴尔德家族成为欧洲金融霸主——信息一直就是金融中最关键的edge。

从Quant自身来说,我觉得P世界——统计学习方向是未来,随着数据越来越多,实证方法很有可能长期成为主流——甚至随机微积分的传统强势领域也可能为之侵蚀。但是随机微积分领域的很多理论与方法是古典经济学的集大成之作,如果你想获得更好的直觉,这些是必须深入研究的,不然你很可能沦为反复在同一数据上使用不同的统计包碰运气的data miner

Quant其实只是一种绝对理性和数量化分析思想的践行者。也许今天我说的这些是Quant需要的技能,5年后或许又有了全新的一套体系。要做好一个Quant,唯一必须的就是对理性的信仰和Unquenchable Curiosity。

0 意見 :

張貼留言

.

.
Related Posts Plugin for WordPress, Blogger...