AI模型如何一箭多雕:多任務學習_第1頁
AI模型如何一箭多雕:多任務學習_第2頁
AI模型如何一箭多雕:多任務學習_第3頁
AI模型如何一箭多雕:多任務學習_第4頁
AI模型如何一箭多雕:多任務學習_第5頁
已閱讀5頁,還剩9頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

多任務學習多任務學習并不是新的機器學習技術。早在0年,uddrth和ergosen就提出在主任務外設置提示任務從而幫助神經網絡學習主任務7年Caruna在綜述中明確了多任務學習的概念,并分析其有效的原因。7年,uer在綜述中總結了多任務學習在深度學習領域的新進展。多任務學習的概念和優(yōu)勢傳統(tǒng)單任務學習通常只優(yōu)化一個指標,忽略其他相關任務的信息。多任務學習利用不同任務間的關聯(lián)性,共享信息表征,實現(xiàn)任務間的知識遷移,提高模型的泛化能力。多任務學習在自然語言處(Hashmoto等計算機視(bulnbi等和股票預測(a和a,22)等領域都獲得了成功。深度神經網絡中實現(xiàn)多任務學習有兩種常用方式:硬參數共享和軟參數共享。硬參數共享由Carun(提在硬參數共享架構,所有任務共享底部,不同任務擁有獨立的頂部層,通過共享隱藏層減少過擬合風險。軟參數共享中,每個任務都有自己的模型和參數,通過對不同模型參數間的距離進行正則化,提高參數相似性。圖表:多任務學習的硬參數共享 圖表:多任務學習的軟參數共享: :多任務學習從以下幾個方面提高原始模型的性首先通過知識遷移增強對特征的學習多個任務可以共享領域知識,提高模型泛化能力。其次,通過輔助任務對主任務進行正則化,幫助主任務聚焦于真正重要的特征,減少無關信息干擾,降低過擬合風險。再次,多任務學習可以視作隱式的數據增強,能夠有效增加樣本數量,避免過擬合。多任務學習的損失加權方式多任務學習中各任務損失函數加權方式是決定模型表現(xiàn)的關鍵因素。我們梳理常用的加權方式如下。endal等((ncertantyegh,W:利用各任務的不確定性作為權。以雙任務學習為例,損失函數中的1和2分別代表兩項任務的不確定性,?1??)和?2??)分別代表兩項任務的損失函數。任務的不確定性越大,其損失函數對模型更新的貢獻就越小。具體實現(xiàn)時,不確定性1和2設為可更新的參數,直接由神經網絡學習。1 1???,1,2)=2??2?1??)+2??2?2??)+log1+log21 2Lu((dnmceigtaeragW使得不同任務的學習速率盡量保持一致。WA回溯各任務過去2期損失函數值,若-1期相比于-2期升高,則給予該任務更高的權重,促進該任務的學習。?????1)??????)=

??( ?? )?????1)∑????(

???? )?????1)=??????1)?? ??????2)Chennpati((eometrcossstratgGLS將各任務損失函數值的幾何均值作為總損失。??? =∏? =∏??1Ln等((rmegtoss,W:直接向不同任務施加總和為0的隨機權重。多任務學習近期研究進展硬參數共享和軟參數共享是主流的參數共享機制近年來有學者提出新的多任務學習機制Msra等()提出crss-sttch網絡(十字繡網絡,使用線性單元學習每個任務特異性表征的最優(yōu)組合,本質是通過端到端方式使得網絡自動學習需要共享的特征。ag和Hospdaes(21)提出張量分解模型,將每層網絡參數分解為共享和任務特異性參數。Rudr等()提出suice網絡(水閘網絡,糅合硬參數共享和crosssttch等技術,能夠學習哪些層和子空間應該共享,以及網絡在哪些層學習了合適的輸入信息表征。如何學習任務間的關系也是多任務學習領域的研究熱點a(提出多門專家混合模型(,使用門控機制捕捉任務間差異,隱式建模任務關系。注意力機制也被應用于多任務學習Zho(使用注意力網絡靜態(tài)捕捉任務關a和a()提出基于注意力的模型,根據任務關系實現(xiàn)自適應和動態(tài)知識遷移。圖表:roih網絡 圖表:多門專家混合模型:CrssstitchNetoksrMltitskeig, :dligTskRlaisipsinltitskLaingithltiateituefEpts,a和a(將多任務學習應用于股票預測問題傳統(tǒng)股票預測中通常以單只股票收益率為預測目標,這種預測稱為on-wse預測,此時樣本數量等于股票數量與交易日數量的乘積,由于樣本量較大學習相對容易。另一類預測任務中,會將單個交易日全體股票收益率排序為預測目標,這種預測稱為st-wse預測,此時樣本數量等于交易日數量由于樣本量較小學習相對困難a和an提出的多任務股票排序預測網絡中以s-se預測為主任務pn-se預測為輔助任務引入注意力層學習任務間關系實現(xiàn)動態(tài)知識遷移。圖表:多任務學習應用于股票排序問題:StckRakingithltiTaskring,方法本研究在現(xiàn)有周頻中證0指增模型基礎上,引入多任務學習機制,測試改進效果。主要測試模型如下其中stl代表單任務學mtl代表多任務學4和6代表網絡隱單元損失函數加權選取ucertanty兩種方法。

u和dnmceghtaverag(dwa)圖表:主要測試模型測試模型學習方式隱單元數多任務學習損失函數加權方法l4單任務-ml_w_4多任務ctintyweitml_wa64多任務dnmicigtveael56單任務-ml_w_56多任務ctintyweitml_wa26多任務dnmicigtveae基線模型為全連接神經網絡特征為2個常規(guī)的基本面和量價因子標簽為未來0或個交易日收益率在截面上的排序,損失函數為加權m,以截面?zhèn)€股收益率排序進行衰加權交叉驗證方法為單次驗證以226個交易日為訓練集2個交易日為驗證集,22*0.5個交易日為測試集相當于約半年滾動訓練一次交叉驗證配合早停僅用于確定模型的迭代次數,其余超參數均為固定值。模型訓練環(huán)節(jié)多任務學習采用傳統(tǒng)的硬參數共享方式同時設置單任務學習對照組MP網絡結構如下圖,前兩層為任務共享層,第三層為任務特異層。單任務學習和多任務學習均給出兩組收益預測分別對應未來0或0個交易日收益率組合優(yōu)化環(huán)節(jié)采用()10日預測、()20日預測、(0日預測和0日預測集(等權均值分別構建中證0指數增強組合。每個模型將對應三條回測凈值。圖表:網絡結(以隱單元數6為例):模型構建方法、選股因子如下列圖表。具體細節(jié)可參考華泰金工研報《人工智能:圖經網絡選股的進階之路(-0-《人工智能九坤agle量化大賽有哪些啟示(3--3。相比過往研報中的模型,我們進行三處改進:全連接神經網絡的隱單元數從4擴充到。全連接神經網絡的激活函數由gmod改為更常用的ekReU并刪去批標準化層。隨機數種子點由1組改為5組求預測值均值。圖表:選股模型構建方法步驟參數參數值構建股票池股票池全A股;剔除上市未滿3個交易日個股,剔除ST、*ST、退市整理期個股;每個季末截面期,在未停牌個股中,篩選過去1年日均成交額和日均總市值均名前%個股構建數據集特標T日2個基本面和量價因子T+11日相對于T+1日收盤價收益率T+1日相對于T+1日收盤價收益率因子預處理特征5倍AD縮尾;zscoe標準化;缺失值填為;不做中性化標簽剔除缺失值;截面排序數標準化訓練流程測試集完整區(qū)間訓練、驗證、測試集劃分特殊處理100~22348訓練集5*6個交易日,驗證集2*2個交易日,測試集6個交易日;如第1期訓練集229~0805,驗證集202~0031,測試集100~2171;第2期訓練集002~2066,驗證集200~0171,測試集101~2213剔除訓練集、驗證集最后0或0個交易日樣本,防止信息泄露設置模型網絡結構全連接神經網絡隱單元數損失函數tch學習率優(yōu)化器早停次數隨機數種子點4或56加權ms(根據收益率衰減加權)每個交易日的全體股票視作一個.015組求均值構建組合基準中證0指數優(yōu)化目標最大化預期收益組合倉位1個股權重下限0個股偏離權重約束%,%]行業(yè)偏離權重約束%,%]風格偏離標準差約風格因子調倉周期單次調倉單邊換手率上限%,%]對數流通市值(預處理:5倍AD縮尾,scoe標準化)每5個交易日成分股權重約束無回測單邊費交易價特殊處.02vwap停牌不買入賣出一字板漲停不買入一字板跌停不賣出其余可交易股票重新分配權重圖表:選股模型使用的2個因子類別 名稱 計算方式估值lf_tmcfptmd12市凈率市盈率TT)凈經營性現(xiàn)金流TT)近2日股息率預期cnpsgcno_gcnpg一致預期EPS(F1)近3日增長率一致預期ROEFY近3日增長一致預期歸母凈利潤(F1近3日增長率反轉tdtmep_trtunm近5日區(qū)間收益率近1日區(qū)間收益率近3日收益率以換手率指數衰減加權波動率st_mvst_mivfffcto_m收益率近1日標準差成交量近1日標準差殘差收益率(收益率對萬得全A、市值、BP因子收益率回歸)近1日標準差換手率trmsttr_mias_tu_m換手率近1日均值換手率近1日標準差換手率近1日均值近4日均值日間技術st_t1dstvl_0dsttr_0dcrrt_closecrrt_pncrrt_ighcrrtlowcrrt_vapcrrt_vlcrrt_tuncrvl_clsecrvl_oencrvl_ihcrvl_lowcrvl_vwap收益率近0日標準差成交量近0日標準差換手率近0日標準差收益率和收盤價近0日相關系數收益率和開盤價近0日相關系數收益率和最高價近0日相關系數收益率和最低價近0日相關系數收益率和均價近0日相關系數收益率和成交量近0日相關系數收益率和換手率近0日相關系數成交量和收盤價近0日相關系數成交量和開盤價近0日相關系數成交量和最高價近0日相關系數成交量和最低價近0日相關系數成交量和均價近0日相關系數日內技術loihvwapclosekmidklenkmid2kpk2klowklo2ksftksf2lo/ihvwa/closeclosoe/pniglo/pnclosoe/ihlow)ig-et(p,clos)/onig-et(p,clos)/(ighlow)lesspn,cls)low/oenlesspn,cls)low/(iglow)*clos-ighlow/en*clos-ighlow/iglo)資料來源:朝陽永續(xù),結果本研究主要測試模型因子評價指標及回測績效如下列圖表。核心結論如下:多任務學習的加權RakIC均值和信息比率均優(yōu)于單任務學習。模型規(guī)模擴大,多任務相比單任務學習的優(yōu)勢隨之擴大。從子任務預測值集成模型上看,多任務相比單任務學習的優(yōu)勢在時序上較穩(wěn)定。圖表:主要測試模型合成因子評價指標回測期4至)C均RanIC

加權

加權RaIC

加權 加權op組精Btm組精op組年化Btm組年化多空對沖年化

基準收值 值 均

均值ICIR

ICIRRanICIR 確

確率 收益

收益

收益率 益率0日預測l4.%.%.%.%.88.03.74.91.%.%.%0.%.%.%ml_w_4.%.%.%.%.87.03.73.91.%.%.%0.%.%.%ml_wa64.%.%.%.%.87.03.73.90.%.%.%0.%.%.%l56.%.%.%.%.89.03.75.91.%.%.%1.%.%.%ml_w_56.%.%.%.%.90.05.76.93.%.%.%1.%.%.%ml_wa26.%.%.%.%.90.05.76.93.%.%.%1.%.%.%0日預測l4.%.%.%.%.4.%.%.%0.%.%.%ml_w_4.%.%.%.%.82.00.67.87.%.%.%0.%.%.%ml_wa64.%.%.%.%.82.00.67.87.%.%.%0.%.%.%l56.%.%.%.%.6.%.%.%0.%.%.%ml_w_56.%.%.%.%.84.01.69.89.%.%.%1.%.%.%ml_wa26.%.%.%.%.84.01.69.89.%.%.%1.%.%.%0日預測與0日預測集成l4.%.%.%.%.84.01.69.87.%.%.%0.%.%.%ml_w_4.%.%.%.%.85.02.70.89.%.%.%0.%.%.%ml_wa64.%.%.%.%.85.02.70.89.%.%.%0.%.%.%l56.%.%.%.%.86.01.72.88.%.%.%1.%.%.%ml_w_56.%.%.%.%.87.04.73.91.%.%.%1.%.%.%ml_wa26.%.%.%.%.87.03.72.91.%.%.%1.%.%.%資料來源:朝陽永續(xù),圖表:全部測試模型回測績效(回測期4至,基準中證0指數)年化收益

年化波動夏普

最大回Camr比年化超額收益年化跟蹤誤信息比超額收益最大

超額收益Camr相對基準月勝年化雙邊換手率 率 率 撤

率 差 率 0日預測

比率 率 率l4ml_w_4ml_wa64l56ml_w_56ml_wa26l4ml_w_4ml_wa64l56ml_w_56ml_wa26

.%.% .66.% .2.%.3.25.52.%.%.%.%.%.8%.45.2%.3%.3%.6%.3%.4%.%.%.%.%.%.%.%.% .66.% .36.%.% .73.% .41.%.% .71.% .38.%.% .72.% .2.6%.%.2%.1%.7%.6%.1%.56.1%.1%.0%.3%.0%.0%.%.%.%.%.%.%.%.% .70.% .38.%.% .70.% .38.%.% .71.% .39.%.% .75.% .42.%.% .73.% .41

.8.520日預測.9.640日預測與0日預測集成

.% .7.% .7.% .5.% .4.% .6.% .3.% .1.% .5.% .1.% .6.% .3.% .9l4.%.%.73.%.40.%.1%.74.1%.86.% .3ml_w_4.%.%.70.%.39.%.2%.58.%.58.% .2ml_wa64.%.%.69.%.37.%.2%.52.%.36.% .0l56.%.%.72.%.40.%.3%.60.%.64.% .2ml_w_56.%.%.72.%.39.%.2%.67.9%.87.% .6ml_wa26.%.%.75.%.41.%.2%.77.6%.01.% .4資料來源:朝陽永續(xù),多任務學習在因子測試和組合回測上均優(yōu)于單任務學習首先考察隱單元數為6時,各模型合成因子測試和指增組合回測表現(xiàn),觀察可知:多任務學習mt_u_256和mtdw_256的加權RankIC均值和信息比率均優(yōu)于單任務學習st。多任務學習的優(yōu)勢既分別體現(xiàn)在0日預測和0日預測兩個子任務上,又體現(xiàn)在兩預測值集成上。w和da兩類多任務學習加權方式表現(xiàn)接近。對比不同預測任務,加權akIC均值:集成0日預測≈0日預測;信息比率:集成≈0日預測10日預測??傮w而言,集成多任務預測結果或能帶來穩(wěn)定提升。stl_56加權RkC均值mtluw_26 mtldwa_56圖表:stl_56加權RkC均值mtluw_26 mtldwa_56.%

.9

ssl_56mluw26mldw_56.%

.8.%

.7.6.%

.5.%

日預測

日預測

日預測與日預集成

.4

日預測

日預測

日預測與日預測成:朝陽永續(xù), , :朝陽永續(xù), ,模型規(guī)模擴大,多任務相比單任務學習的優(yōu)勢隨之擴大對比隱單元數為4和6時各模型表現(xiàn)。從合成因子測試加權RankIC均值看:隱單元數6整體優(yōu)于隱單元數,表明擴大參數規(guī)?;蚰芴嵘P托阅堋k[單元數為4時多任務學習加權RankIC均值同樣優(yōu)于單任務學習但隱單元數的多任務學習,表現(xiàn)也僅僅和隱單元數6的單任務學習接近。圖表:測試模型加權nIC均值(隱元數為4或).%

加權RakC均值stl_4 mtluw_64 mtldwa_4 stl_56 mtluw_26 mtldwa_56.%.%.%.%.%

日預

日預測

日預測與日預測集成:朝陽永續(xù), ,從指增組合回測信息比率看:隱單元數為4時,多任務學習相比單任務學習沒有顯著優(yōu)勢,尤其是0日預測與日預測集成時,單任務學習st4反而優(yōu)于兩類多任務學習模型。隨著模型規(guī)模擴大多任務學習相比單任務學習的優(yōu)勢體現(xiàn)更為充分直觀地看參數量較少時,模型擬合能力有限,各類任務可能“顧此失彼。多任務相互兼容或需以相對大的網絡規(guī)模為前提。圖表:測試模型信息比率(隱單元數為4或).9

信息比率stl_4 mtluw_64 mtldwa_4 stl_56 mtluw_26 mtldwa_.5.4.3

日預

0日預測

日預測與日預測集成:朝陽永續(xù), ,多任務相比單任務學習優(yōu)勢的時間分布:集成模型較穩(wěn)定多任務學習相比單任務學習的優(yōu)勢在時序上是否穩(wěn)定?以隱單元數6為例,統(tǒng)計這兩任務累計加權RakC值之差,如下圖所示,結果表明:0日預測多任務學習的優(yōu)勢僅集中體現(xiàn)在0年下半年至3年3月區(qū)間其余時間兩類任務表現(xiàn)接近。0日預測多任務學習的優(yōu)勢僅集中體現(xiàn)在1年至5年上半年區(qū)間其余時間兩類任務表現(xiàn)接近。0日預測與0日預測集成:融合0日預測和0日預測的特點,多任務學習的優(yōu)勢在時序上分布更均勻,僅在21年下半年、9年下半年、0年上半年出現(xiàn)連續(xù)且幅度較大的回撤,其余時間多任務學習整體優(yōu)于單任務學習。圖表:多任務與單任務學習累計加權IC均值差(0日預測) 圖表:多任務與單任務學習累計加權IC均值差(0日預測)3累計加權Ra累計加權RakC均值之差101)01010-4

mtlmtluw_26-stl26mtldwa_56-sl_56

7累計加權Ra累計加權RakC均值之差54321001010-4

mtlmtluw26-stl26mtldwa_56-sl_56020-4030-4040-405020-4030-4040-4050-4060-4070-4080-4090-4000-4010-4020-4030-4020-4030-4040-4050-4060-4070-4080-4090-4000-4010-4020-4030-4圖表:多任務與單任務學習累計加權IC均值差(0日預測與0日預測集成)日預測與日預測集成 mtluw_26-stl26mtldwa_56-sl_564累計加權Ra累計加權RakC均值之差21001010-4010-4020-4020-4030-4030-4040-4040-4050-4050-4060-4060-4070-4070-4080-4080-4090-4090-4000-4000-4010-4010-4020-4020-4030-4:朝陽永續(xù), W類似地,統(tǒng)計這兩類任務累計超額收益之差,如下圖所示。從0日預測、0日預測和成的超額收益看,多任務學習相比單任務學習的優(yōu)勢在時序上并不穩(wěn)定。多任務學習在加權RankIC上體現(xiàn)出的改進效果,經過組合優(yōu)化后,很難完全體現(xiàn)在超額凈值上。圖表:多任務與單任務學習累計超額收差(0日預測) 圖表:多任務與單任務學習累計超額收差(0日預測)

mtlmtluw_26-stl26mtldwa_56-sl_56

0%

日預測累計超額收益之累計超額收益之差1%2%3%01010-4

0%mtluw_2mtluw_26-stl26mtldwa_56-sl_56累計超額收益之差 14020-4030-4040-4050-4060-4070-4080-4090-4000-4010-4020-4030-4020-4030-4040-4050-40020-4030-4040-4050-4060-4070-4080-4090-4000-4010-4020-4030-4:朝陽永續(xù), ,

注:回測期0-14至0-428,基準為中證50指數:朝陽永續(xù), ,圖表:多任務與單任務學習累計超額收差(0日預測與0日預測集成) ml mluw26-sl26mldw_56-sl_560%0%0%累計超額收益之累計超額收益之差0%1%2%01010-4010-4020-4020-4030-4030-4040-4040-4050-4050-4060-4060-4070-4070-4080-4080-4090-4090-4000-4000-4010-4010-4020-4020-4030-4注:回測期0-14至0-428,基準為中證50指數:朝陽永續(xù), W繼續(xù)擴大規(guī)模:合成因子ankIC提升,指增組合信息比率下滑當隱單元數從4擴大至6時我們觀察到合成因子加權RakIC和指增組合信息比率均有提升。繼續(xù)將隱單元數擴大至4,合成因子測試和指增組合回測結果如下圖所示:隱單元數為4時,合成因子加權RankC均值顯著提升,并且多任務學習mt__124和mtda_124優(yōu)于單任務學習st。但與此同時,指增組合信息比率下降,且多任務相比單任務學習的優(yōu)勢大幅削弱。單純從I因子合成這步看()擴大模型規(guī)模和(引入多任務學習仍有改進效果但這兩項改進無法體現(xiàn)在指增組合優(yōu)化上。這也印證了我們在《人工智能:九坤agle量化大賽有哪些啟示(--3)提到的因子合成和組合優(yōu)化錯配問題,本文仍無法解決。圖表:測試模型加權nIC均值(隱元數為、6或)0.3%0.2%0.1%0.0%.%.%.%.%.%.%.%

加權RakC均值stl_4 mtluw_64 mtldwa_4 stl_56 mtluw_26mmtldw_56stl_04mtluw_124mtldwa_04日預測 日預測 日預測與日預測集成:朝陽永續(xù), ,圖表:測試模型信息比率(隱單元數為、6或)信息比率stl_4 mtluw_64 mtldwa_4 stl_56 mtluw_26mlmldw_56sl_04mluw124mldw_0.

日預

日預測

日預測與日預測集成:朝陽永續(xù), ,預測值相關性分析:多任務學習內部相關性更高以隱單元數為6為例,統(tǒng)計各模型預測值相關性,方法為逐日計算相關系數矩陣,再日期求均值,如下表所示:各模性內部相關性較高,相關系數均在5以上。觀察每組模型內部,0日預測與0日預測相關性,單任務學習st6為0.954,多任務學習mt_w_26和m_dwa_256均為。多任務學習內部相關性更高。未來0日收益率包含于未來0日收益率,理論上兩者預測值相關性應較高。多任務學中,0日預測和0日預測兩個子任務協(xié)同訓練,因此相關性較單任務學習更高。圖表:測試模型預測值相關性(隱單元為)l56 ml_w_56 ml_wa260日預測0日預測集成0日預測0日預測集成0日預測0日預測 集成l560日預測6.98.970日預測.97.94集成.96.902ml_w_560日預測.97.96.90.97.930日預測.0.95集成.3.90ml_wa260日預測.0.97.931.97.930日預測.7.00.95.971.95集成.3.95.00.93.951資料來源:朝陽永續(xù),總結本研究介紹多目標學習基本概念,并將多目標學習應用于量化選股場景。采用基礎的硬參數共享機制,訓練全連接神經網絡同時預測未來0日和0日收益率排序,兩項任務的失函數采用ucertantyweigt或dnamceghtaerae方式加權結果表明多任務學習的合成因子測試和指增組合回測指標均優(yōu)于單任務學習;模型規(guī)模擴大,多任務學習的優(yōu)勢隨之擴大從子任務預測集成模型看多任務相比單任務學習的優(yōu)勢在時序上較穩(wěn)定傳統(tǒng)I預測問題對模型的定位是“專才”每個模型對應唯一預測目標執(zhí)行某項特定功能,這種學習機制稱為單任務學習然而無論人類還是“通才”更符合人們對智能的期待。例如我們面對人臉可以同時識別性別和年齡,大語言模型既可以對話又可以寫代碼。多任務學習正是為訓練通才這一目標提出的學習機制,每個模型對應多個預測目標,同時學習多項任務。多任務學習機制符合直觀理解,如識別性別和年齡的任務,可能基于相近的臉部特征,可使用相同網絡參數;學習英語的同時學習德語,由于歸屬相同語系,可能“觸類旁通,學習效率更高。多任務學習利用任務間關聯(lián)性,共享信息表征,實現(xiàn)知識遷移,提高泛化能力。有兩種常用架構:(1硬參數共享,各任務底部層共享,頂部層獨立;(2)軟參數共享,各任務有獨立的模型和參數,通過正則化提高參數相似性。多任務學習有效的原因:(1)知識遷移增強特征學習;(2)輔助任務對主任務進行正則化,幫助主任務聚焦于真正重要的特征,減少無關信息干擾;(3)可視作隱式的數據增強,有效增加樣本數量,避免過擬合。各任務損失加權方式是決定模型表現(xiàn)的關鍵因素,常用方法如、dw、gs、rw等。在現(xiàn)有周頻中證0指增模型基礎上,引入多任務學習機制,測試改進效果?;€模型為P網絡,特征為常規(guī)的基本面和量價因子。多任務學習網絡前兩層為任務共享層,第三層為任務特異層,采用傳統(tǒng)的硬參數共享,使用w或da方式進行損失函數加權,同時設置單任務學習對照組。單任務學習和多任務學習均給出兩組收益預測,分別對應未來或0個交易日收益率。組合優(yōu)化采用(1)10日預測、2)20日預測、(3)10日預測和0日預測等權集成,分別構建中證0指數增強組合。測試結果表明:隱單元數為6時,多任務學習的加權RankIC均值和信息比率均優(yōu)于任務學習,優(yōu)勢既分別體現(xiàn)在0日預測和0日預測兩個子任務上,又體現(xiàn)在兩者預測值集成上,集成多任務預測值整體優(yōu)于單獨使用子任務預測值。對比不同隱單元數的模型表現(xiàn),隨著模型規(guī)模擴大,多任務相比單任務學習的優(yōu)勢體現(xiàn)更充分,多任務相互兼容或需以相對大的網絡規(guī)模為前提。多任務學習中,0日和0日收益率預測兩個子任務協(xié)同訓練,兩者相關性較單任務學習更高。本研究存在以下未盡之處(1)任務設置以預測不同區(qū)間收益率作為子任務其他如分類回歸收益率夏普比率等任務有待測試(2加權方式以w和da作為損失函數加權方式,其他如gs、rw等加權方式有待測試;(3)學習機制:以硬參數共享作為學習機制,其他如軟參數共享、注意力等機制有待探索;(4)本研究發(fā)現(xiàn)隱單元數擴大至4且采用多任務學習時合成因子RakIC大幅提升但指增組合表現(xiàn)下滑如何解決因子合成和組合優(yōu)化錯配問題有待探索。參考文獻bdulnb,.H.,Wag,.,L,J.,&Jia,K.(215).Mti-taskCNNmoelforatrbutepredcton.IEEErasactonsonMutmea,1(1),199–159Caruna,R..(199).Muttaskernng.achneLernng,28(1),1-Chennpat,.,stu,G.,ogma,.,&Rawasheh,...(201).Mutnt+:mut-stremfetureaggregtionandgemetrcossstratgyformut-taskernn.IE.Hashmot,.,Xong,C.,suruoka,.,&oche,R.(21).Ajontmany-taskmoe:GrownganeralnetorkfrmutpeNLPtasks.rXvpreprintarXi:161.058.enda,.,Ga,.,&Cpola,R..(217).Muti-askLarnngUsingUncertantytoWghLssesforceeGemetryadematcs.arX,1.10/CVR.208.0071.Ln,.,Feiang,..,Zhng,.,&sag,I.(202).ReasonalefectenssofRandomWegtn:ALitmusestforMti-akLarnng.rasactosonMchneLarnngReserch.Lu,.,Jons,.,&Davso,.J..(208).End--endmuti-taskerningwthatenton.M,J.,Zhao,Z.,,X.,Chen,J.,Hong,L.,&Ch,.H.(218).Moeingtaskreatoshpsinmuti-taskerningwithmut-gatemxture-f-exprts.Inroceedinsfthe2thCMIGDDntrnationalcoferenceonknededscovery&datamnng(p.130–139).ACM.M,.,&a,.(202b).Adptveanddnamcknwlegetransfernmuttaskerningwthatentionntworks.In.a,.h,&M.uba(ds.),Commucatosncmpteradnformatonscece:vo.124,Dat

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論