程序自動生成技術(shù)之研究動態(tài)_第1頁
程序自動生成技術(shù)之研究動態(tài)_第2頁
程序自動生成技術(shù)之研究動態(tài)_第3頁
程序自動生成技術(shù)之研究動態(tài)_第4頁
程序自動生成技術(shù)之研究動態(tài)_第5頁
已閱讀5頁,還剩40頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

程序自動生成技術(shù)之研究動態(tài)代碼大數(shù)據(jù)的形成引發(fā)了

“利用表示學(xué)習(xí)模型解決開發(fā)問題”的研究海量高質(zhì)量開源代碼解決方案編程任務(wù)表示模型學(xué)習(xí)重要國際會議相關(guān)論文的數(shù)量不斷攀升分布:54%來源于人工智能領(lǐng)域,46%來自于軟件工程領(lǐng)域相關(guān)領(lǐng)域的研究雖然,相關(guān)領(lǐng)域(特別是自然語言處理)的研究已經(jīng)取得了重要進(jìn)展,但卻無法直接應(yīng)用于代碼大數(shù)據(jù)的分析。?程序代碼數(shù)據(jù)的特性抽象性

——對比自然語言,代碼的淺層信息難以體現(xiàn)其操作語義。結(jié)構(gòu)性

——代碼的結(jié)構(gòu)(如AST的復(fù)雜度)遠(yuǎn)比自然語言要復(fù)雜。演化性

——代碼的迭代比自然語言頻繁,演化速度比自然語言快。代碼的自動生成面臨諸多挑戰(zhàn)挑戰(zhàn)之一:

代碼詞匯表與自然語言詞匯表存在巨大差異代碼詞匯表中詞匯數(shù)量通常比自然語言多很多;代碼中詞匯的語義具有較強(qiáng)的區(qū)域性,且與代碼結(jié)構(gòu)密切相關(guān);代碼中自定義標(biāo)識符具有較強(qiáng)的動態(tài)性,容易發(fā)生變化;代碼的自動生成面臨諸多挑戰(zhàn)挑戰(zhàn)之二:

代碼之間的語義依賴關(guān)系不同于自然語言代碼語句之間的依賴關(guān)系與代碼結(jié)構(gòu)或體系結(jié)構(gòu)相關(guān),復(fù)雜程度較高;與自然語言相比,代碼語句之間存在“較遠(yuǎn)”的語義依賴關(guān)系;代碼的自動生成面臨諸多挑戰(zhàn)挑戰(zhàn)之三:

代碼與背景知識的綁定關(guān)系較強(qiáng),且演化快代碼的語義與所使用的API庫、框架等可復(fù)用資源密切相關(guān),存在非常強(qiáng)的綁定關(guān)系;API庫、可復(fù)用框架的演化對代碼語義的影響非常大;代碼的語義對其具體運(yùn)行環(huán)境也存在較大的依賴;代碼的自動生成面臨諸多挑戰(zhàn)其他挑戰(zhàn):需求是軟件開發(fā)的起點(diǎn),代碼的語義必須滿足需求才具有實(shí)際意義;與自然語言相比,代碼具有無二義性,且需要通過編譯,并能夠執(zhí)行,因此,更加難以生成;開發(fā)者對代碼的要求不僅僅是能夠執(zhí)行,代碼的優(yōu)劣對最終解決方案的效果,存在較大的影響;相關(guān)研究團(tuán)隊PublicationsAreDeepNeuralNetworkstheBestChoiceforModelingSourceCode,

FSE’17Onthe“Naturalness”ofBuggyCode,

ICSE’16CACHECA:ACacheLanguageModelBasedCodeSuggestionTool(Demo),

ICSE’15OntheLocalnessofSoftware,

FSE’14

Onthe“Naturalness”ofsoftware,

ICSE’12

PremDevanbuProfessorUniversityofCaliforniaatDavisThe

Naturalness

of

Source

Code相關(guān)研究團(tuán)隊相關(guān)研究團(tuán)隊PublicationsSmartPaste:LearningtoAdaptSourceCode.TechReport,2017AConvolutionalAttentionNetworkforExtremeSummarizationofSourceCode.ICML’16MiningSemanticLoopIdiomsfromBigCode.TechReport,2016BimodalModellingofSourceCodeandNaturalLanguage.ICML’15SuggestingAccurateMethodandClassNames.FSE’15LearningNaturalCodingConventions.FSE’14Code

ConventionsEdinburgh相關(guān)研究團(tuán)隊PublicationsAPICodeRecommendationUsingStatisticalLearningfromFine-grainedChanges,FSE’16T2API:SynthesizingAPICodeUsageTemplatesfromEnglishTextswithStatisticalTranslation,FSE’16UsingTopicModeltoSuggestFine-grainedSourceCodeChanges,ICSME’16DoContextsHelpinPhrase-based,StatisticalSourceCodeMigration?,ICSME’16MappingAPIElementsforCodeMigrationwithVectorRepresentations,ICSE’16TienN.Nguyen,Ph.D.

AssociateProfessorIowaStateUniversityResearchInterests:ProgramAnalysisandUnderstanding,SoftwareEvolutionandMaintenance,MiningSoftwareRepositories,VersionandConfigurationManagement,andWebandConfigurableCodeAnalysis.API相關(guān)研究團(tuán)隊PublicationsDeepAM:MigrateAPIswithMulti-modalSequencetoSequenceLearning,IJCAI’17DeepAPILearning,FSE’16SungKimAssociateProfessorHongKongUniversityofScienceandTechnologyZhiJinGeLiLiliMou*PekingUniversity*PostdoctoralfellowUniversityofWaterlooPublicationsLearningToInferAPIMappingsFromAPIDocuments,KSEM2017.ConvolutionalNeuralNetworksoverTreeStructuresforProgrammingLanguageProcessing,AAAI2016.LearningEmbeddingsOfAPITokensToFacilitateDeepLearningBasedProgramProcessing,KSEM2016.AComparativeStudyonRegularizationStrategiesforEmbedding-basedNeuralNetworks,EMNLP2015.Onend-to-endprogramgenerationfromuserintentionbydeepneuralnetworks,arxiv’15BuildingProgramVectorRepresentationsforDeepLearning,arxiv’14,KSEM2015.ScottReed&NandodeFreitas,NEURALPROGRAMMER-INTERPRETERS,CandidatePaperof5thInternationalConferenceonLearningRepresentations(ICLR2017),underreview.QuchengGongandYuandongTianandC.LawrenceZitnick,UNSUPERVISEDPROGRAMINDUCTIONWITHHIERARCHICALGENERATIVECONVOLUTIONALNEURALNETWORKS,CandidatePaperof5thInternationalConferenceonLearningRepresentations(ICLR2017),underreview.RecentlySearch-basedSynthesisIR

based

Search

&

SynthesisGeneration

based

Search

&

SynthesisLanguage-basedDeductionTranslate-basedgenerationProbability-baseddeductionLearning-basedSimulation I-ObasedNaturalStyleLearningOperationProcessorientedLearningCodeGenerationGoogleDeepMind,2016NeuralProgrammer-InterpretersMicrosoftResearch,2017DeepCoder:LearningtoWriteProgramsFacebookAIResearch,2017HGCNN:HierarchicalGenerativeConvolutionalNeuralNetworksNeural

ProgrammingbyExample(NPBE)Microsoft——DEEPCODER:LEARNINGTOWRITEPROGRAMS

Facebook——HierarchicalGenerative

ConvolutionalNeuralNetworks(HGCNN)對比我們在2015年的工作…深度神經(jīng)網(wǎng)絡(luò)程序生成模型深度神經(jīng)網(wǎng)絡(luò)程序生成模型訓(xùn)練生成深度神經(jīng)網(wǎng)絡(luò)程序生成模型訓(xùn)練生成深度神經(jīng)網(wǎng)絡(luò)程序生成模型深度神經(jīng)網(wǎng)絡(luò)程序生成模型深度神經(jīng)網(wǎng)絡(luò)程序生成模型Our

recent

workOur

recent

work35Isitpossibletobridgethegap

betweenNaturalLanguageTextsandPrograms?IntelligentProgrammingHelperProgramunderstandingandFunctionLearningNaturalLanguageProcessingandSemanticsLearningNaturalLanguageText—ProgramMatchingEngineIntelligentProgrammingHelperProgramunderstandingandFunctionLearningNaturalLanguageProcessingandSemanticsLearningNaturalLanguageText—ProgramMatchingEngineIsitpossibletobridgethegap

betweenNaturalLanguageTextsandPrograms?36Thisfunctionimplementsthebubblealgorithmthatsortsanarrayinascendingorder.Wecouldfindamapbetweenasnippetofprogramcodeandapieceofnaturallanguagedescription.KeyProblemsofLearningbasedCodeGenerationHow

torepresenttheprogram?Canweencodethelogicinformationintheprogram?Howtousetheprogramknowledgeincodegeneration?Howtorepresenttheknowledgeusedincodingperiod?Howtodesigntheneuralmodelforprogramlearning?Istheprobabilistic

model

enoughforprogram?Howtodealwiththedefectsofneuralnetworkmodel?Probabilisticdependencyproblemsoverlongdistances.回應(yīng)一個問題VincentJ.Hellendoorn,PremkumarT.Devanbu:

Aredeepneuralnetworksthebestchoiceformodelingsourcecode?ESEC/SIGSOFTFSE2017:763-773謝謝!ChallengetoAIThetruechallengetoartificialintelligenceprovedtobesolvingthetasksthatareeasyforpeopletoperformbuthardforpeopletodescribeformally;solvingtheproblemsthatwesolveintuitively,thatfeelautomatic;likerecognizingspokenwordsorfacesinimages;Thefigureshowstwoofthethreehistoricalwavesofartificialneuralnetsresearch,asmeasuredbythefrequencyofthephrases“cybernetics”and“connectionism”or“neuralnetworks”accordingtoGoogleBooksKey

Trends

about

Deep

LearningKey

Trends

about

Deep

Learning1.

Deeplearninghasbecomemoreusefulastheamount

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論