企業(yè)會(huì)計(jì)準(zhǔn)則 國(guó)際會(huì)計(jì)準(zhǔn)則 管理會(huì)計(jì)應(yīng)用指引 政府會(huì)計(jì)準(zhǔn)則應(yīng)用指南 政府會(huì)計(jì)準(zhǔn)則 企業(yè)會(huì)計(jì)準(zhǔn)則應(yīng)用指南 內(nèi)部控制規(guī)范 保險(xiǎn)會(huì)計(jì)準(zhǔn)則
資產(chǎn)評(píng)估 財(cái)稅縱橫 智能人才認(rèn)證 注冊(cè)會(huì)計(jì)師 智能財(cái)會(huì) 澳洲會(huì)計(jì)師 國(guó)際商務(wù)財(cái)會(huì) 英國(guó)會(huì)計(jì)師
涉稅風(fēng)險(xiǎn) 減稅降費(fèi) 增值稅 契稅 稅務(wù)會(huì)計(jì) 稅收征收管理 注冊(cè)稅務(wù)師 稅務(wù)師 納稅征收 政府理財(cái) 協(xié)助應(yīng)對(duì)稅務(wù)稽查 高管稅務(wù)籌劃及員工激勵(lì) 稅務(wù)爭(zhēng)議解決 國(guó)際稅收 PPP專欄
教育財(cái)會(huì) 管理會(huì)計(jì)政策 管理會(huì)計(jì) MPAcc 金融會(huì)計(jì) 財(cái)務(wù)與會(huì)計(jì) 商業(yè)會(huì)計(jì) 建工會(huì)計(jì) 鄉(xiāng)鎮(zhèn)會(huì)計(jì) 事業(yè)單位會(huì)計(jì) 破產(chǎn)會(huì)計(jì) 農(nóng)村財(cái)務(wù)會(huì)計(jì)
對(duì)股票、債券、期貨等金融資產(chǎn)的趨勢(shì)進(jìn)行準(zhǔn)確預(yù)測(cè)一直是金融領(lǐng)域極其重要,又極具挑戰(zhàn)的工作。 預(yù)測(cè)的困難主要來源于兩個(gè)方面:首先,金融領(lǐng)域預(yù)測(cè)的時(shí)間序列數(shù)據(jù),往往具有高噪聲和高維度等特征。 這些時(shí)間序列數(shù)據(jù)的特征高度依賴于時(shí)間變量長(zhǎng)度,過短的時(shí)間序列,往往不能提取出有效的信息。 其次,預(yù)測(cè)模型較難選擇。 傳統(tǒng)計(jì)量模型依賴于人工設(shè)計(jì)特征,不僅主觀性較高,而且模型信息較為單一,不能及時(shí)反映投資者情緒、心理預(yù)期、突發(fā)事件等高度復(fù)雜的信息。
近年來,隨著大數(shù)據(jù)技術(shù)的發(fā)展和計(jì)算機(jī)性能的提升,人工智能的圖像識(shí)別、自然語言處理等技術(shù)改變了一個(gè)又一個(gè)領(lǐng)域,其中也包括金融市場(chǎng)。 而在眾多人工智能解決方案中,能夠提取數(shù)據(jù)深層特征,過濾時(shí)間序列市場(chǎng)噪聲的深度學(xué)習(xí)方法,成為目前金融市場(chǎng)中炙手可熱的議題。 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)算法的一種,是一種由多層隱藏層構(gòu)成的深層神經(jīng)網(wǎng)絡(luò)。 目前應(yīng)用最廣泛的深度學(xué)習(xí)方法有深度置信神經(jīng)網(wǎng)絡(luò)(DBN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)(LSTM)三種。 一些學(xué)者對(duì)這些深度學(xué)習(xí)方法在金融市場(chǎng)預(yù)測(cè)、投資者情緒分析、投資策略改進(jìn)等方面的應(yīng)用進(jìn)行了研究。Xiong et al.(2016)利用Google 國(guó)內(nèi)趨勢(shì)指數(shù)作為衡量投資者情緒和宏觀經(jīng)濟(jì)因子的變量,建立了S&P500 的長(zhǎng)短期記憶模型,結(jié)果表明基于深度學(xué)習(xí)的預(yù)測(cè)方法比傳統(tǒng)計(jì)量回歸模型精度高出至少31%。 Ding et al.(2015)構(gòu)建了結(jié)合張量神經(jīng)網(wǎng)絡(luò)和深度卷積神經(jīng)網(wǎng)絡(luò)的事件驅(qū)動(dòng)型股票預(yù)測(cè)模型,該模型將新聞中的文本信息轉(zhuǎn)換為神經(jīng)網(wǎng)絡(luò)輸入向量,用以預(yù)測(cè)事件對(duì)股票價(jià)格的短期和長(zhǎng)期影響。 基于S&P500 和個(gè)股的實(shí)證結(jié)果表明,相較于普通BP 神經(jīng)網(wǎng)絡(luò),該模型的預(yù)測(cè)精度提高了6%。 曾志平等(2017)將難以線性化的復(fù)雜時(shí)序數(shù)據(jù)轉(zhuǎn)換為上升、下降和無規(guī)則的三種非結(jié)構(gòu)化曲線,并將此作為深度置信神經(jīng)網(wǎng)絡(luò)(DBN)的輸入向量,以此來預(yù)測(cè)滬深股市所有股票的收盤價(jià)格。 實(shí)證結(jié)果表明,該模型在2000年至2014年間的決策正確率高達(dá)90.54%。
在金融市場(chǎng)的預(yù)測(cè)研究中,股票價(jià)格的波動(dòng)一直是學(xué)者們研究的熱點(diǎn)問題。波動(dòng)率在資產(chǎn)分配、定價(jià)以及VaR 等風(fēng)險(xiǎn)管理指標(biāo)的計(jì)算中起著核心作用,其預(yù)測(cè)結(jié)果對(duì)投資組合的構(gòu)建也起到至關(guān)重要的作用。 國(guó)內(nèi)外學(xué)者對(duì)波動(dòng)率預(yù)測(cè)模型進(jìn)行了大量實(shí)驗(yàn)研究,早期對(duì)波動(dòng)率模型的研究由于條件的限制,僅能對(duì)低頻波動(dòng)率進(jìn)行計(jì)算,如Engle(1982)提出的ARCH 模型和Bollerslev(1986)提出改進(jìn)的GARCH 模型,都對(duì)金融波動(dòng)的長(zhǎng)記憶性進(jìn)行了很好地刻畫。 近年來,高頻數(shù)據(jù)的可獲得性改變了金融波動(dòng)率的研究方法。 魏宇和余怒濤(2007)全面探討了各類歷史波動(dòng)率模型和實(shí)現(xiàn)波動(dòng)率的構(gòu)建方法,選取上證綜指高頻數(shù)據(jù),計(jì)算了不同模型下指定波動(dòng)率的預(yù)測(cè)值。 結(jié)果表明,基于ARFIMA 的隨機(jī)波動(dòng)模型和實(shí)現(xiàn)波動(dòng)率模型預(yù)測(cè)精度最高。 羅嘉雯和陳浪南(2018)將時(shí)變稀疏模型以及多元HAR 模型結(jié)合起來構(gòu)建TVS-MHAR 模型,數(shù)據(jù)選取滬深300 期貨、上證綜指和國(guó)債期貨的5 分鐘高頻數(shù)據(jù),對(duì)已實(shí)現(xiàn)波動(dòng)率進(jìn)行預(yù)測(cè),發(fā)現(xiàn)TVS-MHAR 模型的短期、中期以及長(zhǎng)期預(yù)測(cè)精度均最高,投資改善效果最好;TVS-MHAR 模型比固定參數(shù)模型預(yù)測(cè)效果更好,高頻數(shù)據(jù)比低頻數(shù)據(jù)預(yù)測(cè)能夠獲得更大的投資改善。
目前,基于計(jì)量模型的波動(dòng)率研究日趨完善,但是將深度學(xué)習(xí)方法運(yùn)用到波動(dòng)率預(yù)測(cè)的研究尚少,且波動(dòng)率預(yù)測(cè)的應(yīng)用多集中在期貨市場(chǎng),現(xiàn)貨市場(chǎng)的應(yīng)用研究尚存在空白。 綜上所述,本文在以往學(xué)者的研究基礎(chǔ)上,將深度學(xué)習(xí)方法應(yīng)用于金融市場(chǎng)預(yù)測(cè),提出一種預(yù)測(cè)股指高頻波動(dòng)率的新思路。 深度學(xué)習(xí)的模型選擇擬合長(zhǎng)記憶性時(shí)間序列效果最好的長(zhǎng)短期記憶模型,即LSTM 模型。 LSTM 模型相較于RNN、DBN 等其他深度學(xué)習(xí)模型的優(yōu)勢(shì)在于它可以通過一種類似于“門”的結(jié)構(gòu),選擇性地對(duì)數(shù)據(jù)進(jìn)行記憶或者遺忘,因此對(duì)具有長(zhǎng)記憶特征的時(shí)序數(shù)據(jù)擬合效果最好。 當(dāng)前的高頻波動(dòng)率預(yù)測(cè)模型多是針對(duì)波動(dòng)率序列直接建立模型,但是本文借鑒王春峰等(2003)和黃后川和陳浪南(2003)等學(xué)者針對(duì)中國(guó)股市長(zhǎng)記憶性檢驗(yàn)的研究發(fā)現(xiàn),股指價(jià)格序列的長(zhǎng)記憶性比波動(dòng)率的長(zhǎng)記憶性更顯著,因此也更適合作為L(zhǎng)STM 模型的訓(xùn)練樣本。 此外股指價(jià)格序列頻率更高,數(shù)據(jù)樣本更大,信息損失更少,更有利于LSTM 模型的特征提取。
本文的創(chuàng)新之處在于:第一,首次使用深度學(xué)習(xí)的LSTM 模型,以長(zhǎng)記憶性的股指價(jià)格序列為切入點(diǎn),計(jì)算股指波動(dòng)率的預(yù)測(cè)值,對(duì)比發(fā)現(xiàn),該方法的預(yù)測(cè)精度比對(duì)波動(dòng)率序列建模的LSTM 以及ARFIMA 等模型精度更高,為深度學(xué)習(xí)在波動(dòng)率的預(yù)測(cè)上提供了新思路;第二,首次將深度學(xué)習(xí)方法預(yù)測(cè)的波動(dòng)率應(yīng)用于趨勢(shì)擇時(shí)策略,與傳統(tǒng)趨勢(shì)擇時(shí)方法相比,通過波動(dòng)率設(shè)定的動(dòng)態(tài)閾值能夠顯著控制投資的回撤風(fēng)險(xiǎn)。
循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是目前應(yīng)用于時(shí)間序列預(yù)測(cè)最為廣泛的深度學(xué)習(xí)方法。 由于前向BP 神經(jīng)網(wǎng)絡(luò)模型等神經(jīng)元信號(hào)只能單向流動(dòng),當(dāng)被處理數(shù)據(jù)為時(shí)間序列數(shù)據(jù)時(shí),其損失重要時(shí)間序列信息的缺點(diǎn)就顯現(xiàn)出來了。 所以RNN 網(wǎng)絡(luò)在各個(gè)隱藏單元之間引入了權(quán)連接,使得該時(shí)點(diǎn)隱藏層能夠接收上一時(shí)刻隱藏層的輸出,即實(shí)現(xiàn)了動(dòng)態(tài)時(shí)序行為在神經(jīng)網(wǎng)絡(luò)各單元內(nèi)部狀態(tài)的轉(zhuǎn)換。
由于傳統(tǒng)RNN 神經(jīng)網(wǎng)絡(luò)的隱藏層權(quán)重大小會(huì)對(duì)網(wǎng)絡(luò)的學(xué)習(xí)訓(xùn)練產(chǎn)生至關(guān)重要的影響,如果權(quán)重過小會(huì)導(dǎo)致“梯度消失”;如果權(quán)重過大則會(huì)導(dǎo)致“梯度爆炸”,以至于無法收斂,即標(biāo)準(zhǔn)的RNN 結(jié)構(gòu)難以傳遞相隔較遠(yuǎn)的信息,因此對(duì)于長(zhǎng)期依賴問題,RNN 網(wǎng)絡(luò)明顯并不適用。 為了處理存在長(zhǎng)期依賴問題的數(shù)據(jù),本文引入了由Graves 改進(jìn)提出的長(zhǎng)短期記憶(LSTM)模型。 LSTM 是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),解決了傳統(tǒng)RNN 的長(zhǎng)期依賴問題。該模型的具體結(jié)構(gòu)如圖1所示。
圖1 LSTM 模型結(jié)構(gòu)圖
LSTM 解決長(zhǎng)期依賴問題的原因是它在RNN 的基礎(chǔ)上增加了一個(gè)判斷數(shù)據(jù)保留還是遺忘的結(jié)構(gòu),這個(gè)結(jié)構(gòu)被稱為細(xì)胞。 細(xì)胞通過三扇類似于“門”的結(jié)構(gòu)實(shí)現(xiàn)數(shù)據(jù)的保留與遺忘,這三種“門”分別為輸入門、遺忘門和輸出門。所謂的“門”就是一個(gè)sigmoid 激活函數(shù)和一個(gè)元素級(jí)相乘的計(jì)算,sigmoid 層輸出0~1 的值,0 值表示不允許信息通過,1 值表示讓所有信息通過?!伴T”結(jié)構(gòu)可以使LSTM 網(wǎng)絡(luò)篩選出復(fù)雜時(shí)間序列中的有效信息并傳遞給下一時(shí)刻,同時(shí)通過遺忘門遺忘掉冗余的信息。
1.遺忘門
遺忘門的作用是讓網(wǎng)絡(luò)忘掉過去沒有用的信息。 它通過當(dāng)前的輸入xt 和上一時(shí)刻輸出ht-1 計(jì)算出一個(gè)維度為n 的向量,通過sigmoid 函數(shù)計(jì)算出一個(gè)取值范圍為(0,1)的向量ft。 在各個(gè)維度的數(shù)據(jù)中,ft 取值趨近于0 的會(huì)被遺忘,趨近于1 的會(huì)被保留。 遺忘門的計(jì)算公式為:
其中,Wf 是各個(gè)變量的權(quán)重,bf 是截距項(xiàng),σ 是sigmoid 函數(shù)。
2.輸入門
輸入門的作用是為當(dāng)前輸入補(bǔ)充新的信息。 輸入門的計(jì)算分成三個(gè)步驟,首先輸入門sigmoid 函數(shù)根據(jù)當(dāng)前的輸入xt 和上一時(shí)刻輸出ht-1 計(jì)算保留的信息it;然后通過tanh 函數(shù)計(jì)算該時(shí)刻輸入值,并將輸入門it 和輸入值?C t 相乘,形成新的向量,加入細(xì)胞中;最后輸入門將舊的細(xì)胞狀態(tài)乘上遺忘門ft,遺忘部分舊的信息,加上新的輸入信息,形成新的細(xì)胞狀態(tài)。 輸入門的計(jì)算公式為:
其中,it 介于0~1,tanh 為正切激勵(lì)函數(shù),Ct-1 表示(t-1)時(shí)刻的細(xì)胞狀態(tài)值,?C t表示從t 時(shí)刻輸入信息中提取出來的要記錄的信息,Ct 表示經(jīng)過更新的細(xì)胞狀態(tài)值。
3.輸出門
輸出門的作用是根據(jù)更新的細(xì)胞狀態(tài)Ct 形成當(dāng)前時(shí)刻的輸出。 輸出門和輸入門的計(jì)算方式相同,根據(jù)ht-1 和xt 由sigmoid 函數(shù)產(chǎn)生。輸出值使用tanh 函數(shù)處理Ct,最后ot 和tanh (Ct)相乘得到t 時(shí)刻的輸出結(jié)果。 輸出門的計(jì)算公式如下:
Andersen and Bollerslev(1998)、Andersen and Meddahi(2005)的研究表明,基于日內(nèi)高頻數(shù)據(jù)的已實(shí)現(xiàn)波動(dòng)率可以有效降低波動(dòng)率估計(jì)過程中的誤差和噪音。 因此本文選擇學(xué)術(shù)界目前普遍采用的方法,用已實(shí)現(xiàn)波動(dòng)率作為真實(shí)波動(dòng)率的代理變量。 根據(jù)Andersen and Bollerslev(1998)對(duì)真實(shí)波動(dòng)率的定義,真實(shí)波動(dòng)率可以表示為第t 天內(nèi)高頻收益率的平方和,具體計(jì)算過程如下:
第t 天的日收益率表示為:
第t 天5 分鐘高頻收益率表示為:
第t 天的已實(shí)現(xiàn)波動(dòng)率表示為:
之后,Hansen and Lunde(2005)的研究又指出,由于股票市場(chǎng)不是24 小時(shí)連續(xù)交易,因此真實(shí)波動(dòng)率沒有反映出非交易時(shí)間段的信息,所以本文參照兩位學(xué)者的方法,采用某種尺度參數(shù)λ0(scale parameter)對(duì)已實(shí)現(xiàn)波動(dòng)率進(jìn)行調(diào)整,確定最終的波動(dòng)率計(jì)算方式為:
其中,尺度參數(shù)λ0 的計(jì)算方式為:
借鑒唐勇(2012)等學(xué)者的研究,5 分鐘高頻數(shù)據(jù)可以很好地對(duì)波動(dòng)率進(jìn)行估計(jì),故本文選取2016年1月5日至2018年11月30日的滬深300 指數(shù)收盤價(jià)的5 分鐘高頻數(shù)據(jù),共709 個(gè)交易日,每個(gè)交易日可產(chǎn)生高頻收盤價(jià)48 個(gè),樣本總量為34032個(gè)。 數(shù)據(jù)來源于Wind 數(shù)據(jù)庫(kù)。 收盤價(jià)格序列記為Pt,d,t=1,2,3,…,709,d=0,1,2,…,48。Pt,0 表示第t日滬深300 開盤價(jià),其余Pt,d 表示第t日的第d 個(gè)5 分鐘收盤價(jià)。
滬深300 指數(shù)5 分鐘高頻收盤價(jià)格序列如圖2所示。從圖2中可以看出價(jià)格序列是非平穩(wěn)時(shí)間序列,不能采用Garch 族、HAR 族等傳統(tǒng)波動(dòng)率模型。 進(jìn)一步對(duì)價(jià)格序列和真實(shí)波動(dòng)率序列進(jìn)行統(tǒng)計(jì)性檢驗(yàn),結(jié)果如表1所示。由表1可以看出,收盤價(jià)序列不服從正態(tài)分布,表現(xiàn)出顯著的“有偏”和“尖峰”,ADF 檢驗(yàn)結(jié)果(-1.29>-3.43)表明存在單位根,是一個(gè)非平穩(wěn)時(shí)間序列。 進(jìn)一步利用R/S 分析方法對(duì)價(jià)格序列和波動(dòng)率序列進(jìn)行長(zhǎng)記憶性檢驗(yàn),價(jià)格數(shù)列的Hurst 指數(shù)為0.99,波動(dòng)率序列的Hurst 指數(shù)為0.88,均大于0.5 小于1,具有長(zhǎng)記憶性,但是價(jià)格序列的Hurst 指數(shù)更高,長(zhǎng)記憶性更顯著。
表1 價(jià)格序列和真實(shí)波動(dòng)率序列的統(tǒng)計(jì)性檢驗(yàn)
注:峰態(tài)為超額峰態(tài)。
圖2 滬深300 收盤價(jià)格序列
在獲取上述價(jià)格時(shí)間序列的基礎(chǔ)上,本文將使用多層LSTM 網(wǎng)絡(luò)對(duì)收盤價(jià)格進(jìn)行預(yù)測(cè),選取前80%的數(shù)據(jù)作為訓(xùn)練集,后20%的數(shù)據(jù)作為驗(yàn)證集進(jìn)行交叉檢驗(yàn),以t 時(shí)刻的高頻收盤價(jià)作為訓(xùn)練的輸入t+Timetep 時(shí)刻的高頻收盤價(jià)作為標(biāo)簽。 LSTM網(wǎng)絡(luò)基于Google 公司開發(fā)的Tensorflow 平臺(tái)搭建。 優(yōu)化算法使用Diederik and Jimmy 在2014年提出的Adam 優(yōu)化算法,該算法能夠自動(dòng)調(diào)整學(xué)習(xí)率,是目前優(yōu)化性能最優(yōu)秀的機(jī)器學(xué)習(xí)算法之一。損失函數(shù)采用TensorFlow 自帶的tf.reduce_mean 函數(shù)計(jì)算損失平均值。
神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)的設(shè)定對(duì)于模型的預(yù)測(cè)能力至關(guān)重要,但目前學(xué)術(shù)界并沒有一致認(rèn)可的參數(shù)選擇方法,多以試驗(yàn)法為主。 LSTM 深度神經(jīng)網(wǎng)絡(luò)相對(duì)于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)而言,訓(xùn)練速度慢且參數(shù)眾多,僅使用試驗(yàn)法難以確定眾多參數(shù),故本文在試驗(yàn)的基礎(chǔ)上,結(jié)合已有學(xué)者的研究成果,按照如下方法選擇參數(shù),以消除神經(jīng)網(wǎng)絡(luò)參數(shù)對(duì)實(shí)證結(jié)果的影響。
1.時(shí)間步(timestep)
時(shí)間步即用過去多長(zhǎng)的數(shù)據(jù)對(duì)下一時(shí)刻進(jìn)行預(yù)測(cè)。 陳衛(wèi)華(2018)對(duì)LSTM 時(shí)間步的敏感性分析表明,LSTM 的預(yù)測(cè)效果受時(shí)間步的影響較小??紤]到每天可產(chǎn)生48個(gè)高頻價(jià)格,所以本文的timestep 確定為48。
2.隱藏層數(shù)(hiddenlayer)
隱藏層數(shù)過低會(huì)降低模型的預(yù)測(cè)能力,過高則會(huì)增加訓(xùn)練難度,甚至造成“過擬合”問題。根據(jù)Karpathy(2005)的研究,一般的LSTM 模型將隱藏層設(shè)定為3 層即可。因此本文最終的LSTM 網(wǎng)絡(luò)由輸入層、三層LSTM 層、輸出層組成,其中,輸入、輸出層均采取全連接的方式。
3.隱層神經(jīng)元個(gè)數(shù)(hiddensize)
即每層LSTM 神經(jīng)元的個(gè)數(shù),本文在傳統(tǒng)神經(jīng)網(wǎng)絡(luò)經(jīng)驗(yàn)公式m=+a(m是隱藏層節(jié)點(diǎn)數(shù),n 是輸入層節(jié)點(diǎn)數(shù),l 為輸出層節(jié)點(diǎn)數(shù),a 是1~10 的常數(shù)) 的基礎(chǔ)上,將隱藏層神經(jīng)元個(gè)數(shù)從5 到40 每隔5 進(jìn)行試驗(yàn),得到損失函數(shù)與隱層神經(jīng)元關(guān)系如圖3所示,當(dāng)隱藏層神經(jīng)元個(gè)數(shù)為20 時(shí),損失函數(shù)最小,因此將LSTM 網(wǎng)絡(luò)的隱層神經(jīng)元設(shè)定為20。
圖3 隱層神經(jīng)元個(gè)數(shù)與損失函數(shù)關(guān)系
4.訓(xùn)練批次(batch)
batch 是一次傳遞給網(wǎng)絡(luò)的數(shù)據(jù)批次,batch 過小會(huì)使訓(xùn)練十分緩慢,難以收斂;batch 過大會(huì)降低模型準(zhǔn)確度。 batch 的大小一般在16~128,將訓(xùn)練批次大小依次設(shè)定為8,16,24,32,64,128,得到訓(xùn)練批次與損失函數(shù)的關(guān)系如圖4所示。當(dāng)訓(xùn)練批次為128 時(shí),損失函數(shù)最小,因此將LSTM 模型的訓(xùn)練批次設(shè)定為128。
圖4 訓(xùn)練批次與損失函數(shù)關(guān)系
5.學(xué)習(xí)率(learningrate)
學(xué)習(xí)率是LSTM 網(wǎng)絡(luò)最重要的參數(shù)之一。 學(xué)習(xí)率過小會(huì)使網(wǎng)絡(luò)權(quán)重更新較慢;學(xué)習(xí)率過高則會(huì)在梯度下降過程中跳過局部最優(yōu)點(diǎn),影響預(yù)測(cè)精度。 本文在確定了最優(yōu)LSTM 網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練批次的基礎(chǔ)上,將學(xué)習(xí)率依次設(shè)定為0.0006,0.001,0.003,0.006,0.009,0.03,得到學(xué)習(xí)率與損失函數(shù)關(guān)系如圖5所示。 根據(jù)圖像確定適合本模型的學(xué)習(xí)率為0.006。
圖5 學(xué)習(xí)率與損失函數(shù)關(guān)系
6.迭代次數(shù)(epoch)
一個(gè)epoch 周期表示完整地把所有數(shù)據(jù)遍歷一次。 較小的epoch 會(huì)使神經(jīng)網(wǎng)絡(luò)沒有足夠的時(shí)間進(jìn)行學(xué)習(xí)導(dǎo)致“欠擬合”;較大的epcoh 則會(huì)降低訓(xùn)練效率或?qū)е隆斑^擬合”問題。圖6為損失函數(shù)關(guān)于epoch 的變化曲線,從圖中可以觀察到,損失函數(shù)在epoch=900 之后不再具有下降趨勢(shì),所以將最佳epoch 設(shè)定為900。
圖6 迭代次數(shù)與損失函數(shù)關(guān)系
7.正則化(regularization)
本文采用Srivastava et al.(2014) 提出的Dropout 方法解決過擬合問題,將Dropout 率設(shè)定為0.5。
圖7 真實(shí)波動(dòng)率預(yù)測(cè)值比較
根據(jù)Hansen and Lunde(2005)的真實(shí)波動(dòng)率計(jì)算公式:
計(jì)算出的真實(shí)波動(dòng)率預(yù)測(cè)值與實(shí)際值的圖像如圖7所示。
從上面的實(shí)證結(jié)果我們可以看出,先通過LSTM 模型預(yù)測(cè)收盤價(jià)格進(jìn)而計(jì)算出的波動(dòng)率較好地反映了波動(dòng)率的真實(shí)值。 但僅通過LSTM 模型自身的損失函數(shù)不足以準(zhǔn)確衡量出波動(dòng)率的預(yù)測(cè)效果。 鑒于此,本文參考魏宇等(2015)和陳衛(wèi)華(2018)的研究成果,選擇了目前高頻波動(dòng)率預(yù)測(cè)效果優(yōu)異的ARFIMA 模型、直接對(duì)波動(dòng)率建模的LSTM 模型和LSTM-ARFIMA 混合模型作為對(duì)比。 其中,ARFIMA 模型的p、d、q 參數(shù)使用前80%的訓(xùn)練數(shù)據(jù)進(jìn)行估計(jì),然后對(duì)其余20%的驗(yàn)證數(shù)據(jù)進(jìn)行樣本外預(yù)測(cè);直接對(duì)波動(dòng)率建模的LSTM 模型記為L(zhǎng)STM(RV)模型,超參數(shù)設(shè)定方法同上節(jié)所述;LSTM-ARFIMA 混合模型先使用ARFIMA 模型對(duì)已實(shí)現(xiàn)波動(dòng)率線性部分進(jìn)行擬合,提取殘差作為L(zhǎng)STM 模型的輸入,之后將殘差預(yù)測(cè)結(jié)果和ARFIMA 的線性預(yù)測(cè)結(jié)果相加得到最終波動(dòng)率的預(yù)測(cè)值。
有了上述3 個(gè)對(duì)比模型之后,需要確定衡量預(yù)測(cè)偏差的損失函數(shù)。 但是目前學(xué)術(shù)界沒有公認(rèn)的衡量預(yù)測(cè)偏差最合理的損失函數(shù),所以本文根據(jù)Hansen and Lunde(2005)的建議,盡可能多地選擇衡量偏差的損失函數(shù),最終確定了均方誤差(L1)、均方根誤差(L2)、平均絕對(duì)誤差(L3)、經(jīng)異方差調(diào)整的均方誤差(L4)、平均絕對(duì)百分比誤差(L5)等7 種不同的損失函數(shù),具體計(jì)算公式如下:
表2 預(yù)測(cè)性能比較
圖8 模型預(yù)測(cè)精度比較
表2是四種模型不同損失函數(shù)的計(jì)算結(jié)果,從中可以看出基于收盤價(jià)格序列建模的LSTM(Price)模型在所有損失函數(shù)中都明顯優(yōu)于其他三個(gè)模型,在7 種損失函數(shù)中排名均為第一,對(duì)比基于已實(shí)現(xiàn)波動(dòng)率建模的LSTM(Rv)模型,該模型充分利用了高頻價(jià)格序列的記憶性,特征提取能力更強(qiáng),預(yù)測(cè)效果更穩(wěn)健,充分發(fā)揮了LSTM模型在長(zhǎng)記憶時(shí)間序列預(yù)測(cè)上的能力。 四種模型的擬合情況如圖8所示。 基于已實(shí)現(xiàn)波動(dòng)率建模的LSTM(Rv)模型預(yù)測(cè)性能最差,不及ARFIMA 及LSTM+ARFIMA 混合模型,主要原因在于將已實(shí)現(xiàn)波動(dòng)率Rv 作為L(zhǎng)STM 網(wǎng)絡(luò)的輸入時(shí),數(shù)據(jù)記憶性不強(qiáng),難以對(duì)其進(jìn)行特征提取,且數(shù)據(jù)量較小,容易導(dǎo)致過擬合問題,影響樣本外的預(yù)測(cè)能力。
目前,基于波動(dòng)率的應(yīng)用研究大多集中于期貨市場(chǎng),通過Black-Scholes 期權(quán)定價(jià)公式反推出隱含波動(dòng)率,通過隱含波動(dòng)率的大小判斷期權(quán)是否被高估或低估,進(jìn)而實(shí)現(xiàn)期權(quán)套利。 在應(yīng)用深度學(xué)習(xí)方法改進(jìn)已實(shí)現(xiàn)波動(dòng)率預(yù)測(cè)精度的基礎(chǔ)上,進(jìn)一步將預(yù)測(cè)的未來已實(shí)現(xiàn)波動(dòng)率應(yīng)用在滬深300 指數(shù)的趨勢(shì)擇時(shí)策略中,尋找買入與賣出的信號(hào),研究已實(shí)現(xiàn)波動(dòng)率在擇時(shí)策略中的適用性。
本文構(gòu)建的策略為單均線的趨勢(shì)擇時(shí)策略,窗口期為2018年7月1日至2019年2月28日,選擇這一時(shí)期的主要原因在于該段時(shí)期包含了滬深300 指數(shù)一個(gè)局部的下跌及上升周期,更能反映趨勢(shì)擇時(shí)策略在不同形勢(shì)下的收益表現(xiàn)。 指數(shù)復(fù)制方式為購(gòu)買嘉實(shí)滬深300ETF 基金,追蹤誤差0.03%,申購(gòu)費(fèi)率假定為0.15%,贖回會(huì)費(fèi)率假定為1.5%,收益率回測(cè)在優(yōu)礦量化投資平臺(tái)進(jìn)行。 具體策略規(guī)則如下:
規(guī)則1:選取滬深300 指數(shù)的5日均線MA(5)作為擇時(shí)基礎(chǔ)。
規(guī)則2:用隱含波動(dòng)率計(jì)算的收益率標(biāo)準(zhǔn)差s 代替歷史收益率標(biāo)準(zhǔn)差作為閾值。計(jì)算公式參考John(1987)關(guān)于波動(dòng)率與收益率標(biāo)準(zhǔn)差的公式:
其中,s 代表收益率的方差;Rv 代表預(yù)測(cè)的已實(shí)現(xiàn)波動(dòng)率;μi 代表觀測(cè)期內(nèi)的收益率;n 代表觀測(cè)期,本文以每5 分鐘的高頻波動(dòng)率推算收益率日標(biāo)準(zhǔn)差,故n 取48。
規(guī)則3:當(dāng)滬深300 價(jià)格突破5日均線即P>(1+s)*MA(5)時(shí)買入;反之,跌破時(shí)平倉(cāng)。
為了衡量該策略的收益,選擇簡(jiǎn)單5日均線策略作為對(duì)照。 滬深300 指數(shù)、設(shè)置波動(dòng)率閾值的5日均線和普通5日均線的走勢(shì)如圖9所示。
圖9為兩種均線擇時(shí)策略的走勢(shì)圖。 在2018年7月1日至2019年1月3日的下行周期里,兩種均線策略均觸發(fā)交易14 次,其中,基于波動(dòng)率改進(jìn)的均線策略判斷正確率42.8%,一般5日均線策略判斷正確率21.4%,雖受大盤下行周期影響,兩組策略收益均為負(fù),但波動(dòng)率改進(jìn)的策略收益依舊高于一般均線策略,且最大回撤1.24%小于一般均線的3.1%。
圖9 滬深300 及均線走勢(shì)圖
在2019年1月3日至2019年2月28日的上行周期里,基于波動(dòng)率改進(jìn)的均線策略觸發(fā)交易6 次,判斷正確率100%。 簡(jiǎn)單5日均線策略觸發(fā)交易4 次,判斷正確率100%。 在上行周期中波動(dòng)率改進(jìn)的均線策略收益率小于一般均線策略,但最大回撤依舊具有優(yōu)勢(shì)。 由此我們可以得出結(jié)論,基于預(yù)測(cè)已實(shí)現(xiàn)波動(dòng)率改進(jìn)的均線策略雖在收益上不具有明顯優(yōu)勢(shì),但得益于動(dòng)態(tài)調(diào)整的閾值規(guī)則,無論在上行還是下行周期,風(fēng)險(xiǎn)控制能力更強(qiáng),穩(wěn)健性更好,為趨勢(shì)投資的風(fēng)險(xiǎn)管理提供了新的思路。
表3 策略績(jī)效指標(biāo)
本文提出的基于長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)(LSTM)的股票市場(chǎng)波動(dòng)率預(yù)測(cè)方法,將國(guó)內(nèi)高頻股票市場(chǎng)指數(shù)收盤價(jià)作為輸入值,通過多層LSTM 網(wǎng)絡(luò)對(duì)其進(jìn)行非線性預(yù)測(cè),將其預(yù)測(cè)結(jié)果作為計(jì)算波動(dòng)率預(yù)測(cè)值的基礎(chǔ),充分利用了收盤價(jià)格的時(shí)序性和強(qiáng)記憶性。
通過對(duì)滬深300 指數(shù)波動(dòng)率的實(shí)證研究可知,相比于直接針對(duì)已實(shí)現(xiàn)波動(dòng)率建模的長(zhǎng)短期記憶模型和傳統(tǒng)計(jì)量經(jīng)濟(jì)學(xué)模型,本文模型在價(jià)格序列具有高頻和長(zhǎng)記憶性的特征下,通過LSTM 模型對(duì)價(jià)格序列進(jìn)行預(yù)測(cè),進(jìn)而計(jì)算出滬深300 指數(shù)的真實(shí)波動(dòng)率,顯著降低了預(yù)測(cè)的誤差。 本文的實(shí)證結(jié)果還表明,基于深度學(xué)習(xí)模型的波動(dòng)率預(yù)測(cè)方法,雖然具有其獨(dú)特的優(yōu)勢(shì),但也并不一定總是優(yōu)于ARFIMA 等計(jì)量經(jīng)濟(jì)學(xué)模型,深度學(xué)習(xí)模型的預(yù)測(cè)效果也會(huì)受到數(shù)據(jù)頻率、數(shù)據(jù)特征等多方面的影響,其自身也面臨“欠擬合”、“過擬合”等諸多問題。 針對(duì)復(fù)雜的金融市場(chǎng)預(yù)測(cè)問題,需要具體結(jié)合數(shù)據(jù)的特征,考慮模型的適用性。 策略研究的分析表明,基于深度學(xué)習(xí)預(yù)測(cè)波動(dòng)率的趨勢(shì)擇時(shí)策略能夠很好地控制收益率回撤風(fēng)險(xiǎn),進(jìn)一步證明了深度學(xué)習(xí)在金融預(yù)測(cè)領(lǐng)域的適用性。
本文的研究為深度學(xué)習(xí)在波動(dòng)率預(yù)測(cè)問題上提供了一種新的思路,輸入數(shù)據(jù)的長(zhǎng)記憶特征對(duì)LSTM 的預(yù)測(cè)能力至關(guān)重要。 雖然深度學(xué)習(xí)的方法改變了傳統(tǒng)計(jì)量經(jīng)濟(jì)學(xué)模型的范式,弱化了解釋變量的顯著性,但未來仍需要進(jìn)一步研究深度學(xué)習(xí)對(duì)于金融理論的經(jīng)濟(jì)學(xué)解釋,尋找深度學(xué)習(xí)與金融理論結(jié)合的一般框架。
? 2019-2021 All rights reserved. 北京轉(zhuǎn)創(chuàng)國(guó)際管理咨詢有限公司 京ICP備19055770號(hào)-1
Beijing TransVenture International Management Consulting Co., Ltd.
地址:梅州市豐順縣留隍鎮(zhèn)新興路881號(hào)
北京市大興區(qū)新源大街25號(hào)院恒大未來城7號(hào)樓1102室
北京市海淀區(qū)西禪寺(華北項(xiàng)目部)
深圳市南山區(qū)高新科技園南區(qū)R2-B棟4樓12室
深圳市福田區(qū)華能大廈
佛山順德區(qū)北滘工業(yè)大道云創(chuàng)空間
汕頭市龍湖區(qū)泰星路9號(hào)壹品灣三區(qū)
長(zhǎng)沙市芙蓉區(qū)韶山北路139號(hào)文化大廈
站點(diǎn)地圖 網(wǎng)站建設(shè):騰虎網(wǎng)絡(luò)
歡迎來到本網(wǎng)站,請(qǐng)問有什么可以幫您?
稍后再說 現(xiàn)在咨詢