《基于機(jī)器學(xué)習(xí)的情感分類研究的國內(nèi)外文獻(xiàn)綜述》2700字_第1頁
《基于機(jī)器學(xué)習(xí)的情感分類研究的國內(nèi)外文獻(xiàn)綜述》2700字_第2頁
《基于機(jī)器學(xué)習(xí)的情感分類研究的國內(nèi)外文獻(xiàn)綜述》2700字_第3頁
《基于機(jī)器學(xué)習(xí)的情感分類研究的國內(nèi)外文獻(xiàn)綜述》2700字_第4頁
免費(fèi)預(yù)覽已結(jié)束,剩余1頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

基于機(jī)器學(xué)習(xí)的情感分類研究的國內(nèi)外文獻(xiàn)綜述目錄TOC\o"1-2"\h\u31361基于機(jī)器學(xué)習(xí)的情感分類研究的國內(nèi)外文獻(xiàn)綜述 [27]等人提出了一種端對端(end-to-end)的完全無監(jiān)督的學(xué)習(xí)方法,在中英文跨語言情感分析(Cross-lingualSentimentAnalyse)中達(dá)到了87.95%的準(zhǔn)確率。由于中文文體結(jié)構(gòu)復(fù)雜,一詞多義,表達(dá)方式靈活,給中文文本情感分析帶來了巨大挑戰(zhàn)。僅單獨(dú)使用LSTM或者CNN進(jìn)行文本分類常常會面臨特征提取不充分,難以實(shí)現(xiàn)對重點(diǎn)信息的充分利用,因此本文將CNN和LSTM進(jìn)行融合工作,從而解決信息特征提取不充分的問題。針對使用word2Vec訓(xùn)練詞向量的模型不能解決一詞多義的問題,本文采用了最新的bert模型,從而有效解決中文一詞多義問題。1.3文獻(xiàn)述評綜合以上文獻(xiàn),可以看出國內(nèi)關(guān)于情感分析的發(fā)展時(shí)間并不長,但是隨著社會的發(fā)展,不管是電商對于客戶群體情感傾向的需求,還是對于政府了解人民情緒,實(shí)行相關(guān)政策等都有強(qiáng)烈需求。現(xiàn)在國內(nèi)的相關(guān)研究大多在單一模型的研究上。因此本文將主要利用微博的疫情情感數(shù)據(jù)集,開展相關(guān)問題的研究。在機(jī)器學(xué)習(xí)方面,學(xué)者從有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)兩個(gè)方面研究情感分析問題,多年的研究讓機(jī)器學(xué)習(xí)形成了一套完整的方案思路。由于近些年,隨著設(shè)備的發(fā)展,深度學(xué)習(xí)展現(xiàn)出強(qiáng)大的能力,情感分析的中心也轉(zhuǎn)到了深度學(xué)習(xí),鮮有人研究機(jī)器學(xué)習(xí),但是這幾年大火的XGBoost模型,作為機(jī)器學(xué)習(xí)中集成學(xué)習(xí)的代表,在情感分析上也應(yīng)有不錯表現(xiàn)。在深度學(xué)習(xí)方面,近些年國內(nèi)外發(fā)展迅速,從最早挖掘局部特征的CNN到學(xué)習(xí)序列相關(guān)信息的LSTM,以及為了實(shí)現(xiàn)對特定目標(biāo)情感分析的注意力機(jī)制,再到這兩年為了解決中文一詞多義的BERT模型,深度學(xué)習(xí)經(jīng)歷了巨大發(fā)展。但是對于句子信息挖掘的完整度還遠(yuǎn)遠(yuǎn)不夠,相關(guān)研究還有很大的提升空間。參考文獻(xiàn)HofmannT.Probabilisticlatentsemanticindexing[C]//Proceedingsofthe22ndannualinternationalACMSIGIRconferenceonResearchanddevelopmentininformationretrieval.1999:50-57.PangB,LeeL,VaithyanathanS.Thumbsup?Sentimentclassificationusingmachinelearningtechniques[J].arXivpreprintcs/0205070,2002.YeQ,ZhangZ,LawR.Sentimentclassificationofonlinereviewstotraveldestinationsbysupervisedmachinelearningapproaches[J].Expertsystemswithapplications,2009,36(3):6527-6535.姚天防,婁德成.漢語語句主題語義傾向分析方法的研究[C]//全國計(jì)算語言學(xué)學(xué)術(shù)會議.VIP,2007:73-79.謝麗星,周明,孫茂松.基于層次結(jié)構(gòu)的多策略中文微博情感分析和特征抽取[J].中文信息學(xué)報(bào).2012(01):73-83.劉志明,劉魯.基于機(jī)器學(xué)習(xí)的中文微博情感分類實(shí)證研究[J].計(jì)算機(jī)工程與應(yīng)用,2012,48(1):1-4.TurneyP.ThumbsUporThumbsDown?SemanticOrientationAppliedtoUnsupervisedClassificationofReviews[J].AssociationforComputationalLinguistics,2002.TaboadaM,BrookeJ,TofiloskiM,etal.Lexicon-basedmethodsforsentimentanalysis[J].Computationallinguistics,2011,37(2):267-307.朱嫣嵐,閔錦,周雅倩,等.基于HowNet的詞匯語義傾向計(jì)算[J].中文信息學(xué)報(bào),2006,20(1):16-22.王素格,楊安娜,李德玉.基于漢語情感詞表的句子情感傾向分類研究[J].計(jì)算機(jī)工程與應(yīng)用,2009,45(24):153-155.孫艷,周學(xué)廣,付偉.基于主題情感混合模型的無監(jiān)督文本情感分析[J].北京大學(xué)學(xué)報(bào)(自然科學(xué)版),2013,49(1):102-108.LiFH,HuangM,YangY,etal.Learningtoidentifyreviewspam[C]//Twenty-secondinternationaljointconferenceonartificialintelligence.2011.BlumA,MitchellT.Combininglabeledandunlabeleddatawithco-training[C]//ProceedingsoftheeleventhannualconferenceonComputationallearningtheory.1998:92-100.CollobertR,WestonJ,BottouL,etal.Naturallanguageprocessing(almost)fromscratch[J].Journalofmachinelearningresearch,2011,12(ARTICLE):2493?2537.MoraesR,ValiatiJF,NetoWPGO.Document-levelsentimentclassification:AnempiricalcomparisonbetweenSVMandANN[J].ExpertSystemswithApplications,2013,40(2):621-633.TangD,QinB,LiuT.Documentmodelingwithgatedrecurrentneuralnetworkforsentimentclassification[C]//Proceedingsofthe2015conferenceonempiricalmethodsinnaturallanguageprocessing.2015:1422-1432.YangZ,YangD,DyerC,etal.Hierarchicalattentionnetworksfordocumentclassification[C]//Proceedingsofthe2016conferenceoftheNorthAmericanchapteroftheassociationforcomputationallinguistics:humanlanguagetechnologies.2016:1480-1489.WangX,JiangW,LuoZ.Combinationofconvolutionalandrecurrentneuralnetworkforsentimentanalysisofshorttexts[C]//ProceedingsofCOLING2016,the26thinternationalconferenceoncomputationallinguistics:Technicalpapers.2016:2428-2437.TangD,QinB,LiuT.Aspectlevelsentimentclassificationwithdeepmemorynetwork[J].arXivpreprintarXiv:1605.08900,2016.WangX,JiangW,LuoZ.Combinationofconvolutionalandrecurrentneuralnetworkforsentimentanalysisofshorttexts[C]//ProceedingsofCOLING2016,the26thinternationalconferenceoncomputationallinguistics:Technicalpapers.2016:2428-2437.梁軍,柴玉梅,原慧斌,高明磊,昝紅英.基于極性轉(zhuǎn)移和LSTM遞歸網(wǎng)絡(luò)的情感分析[J].中文信息學(xué)報(bào),2015,29(05):152-159.XiaoZ,LiX,WangL,etal.UsingconvolutioncontrolblockforChinesesentimentanalysis[J].JournalofParallelandDistributedComputing,2018,116:18-26.DragoniM,PetrucciG.Aneuralwordembeddingsapproachformulti-domainsentimentanalysis[J].IEEETransactionsonAffectiveComputing,2017,8(4):457-470.Paredes-ValverdeMA,Colomo-PalaciosR,Salas-ZárateMP,etal.Sentimentanaly

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論