大語言模型的前世、今生與未來_第1頁
大語言模型的前世、今生與未來_第2頁
大語言模型的前世、今生與未來_第3頁
大語言模型的前世、今生與未來_第4頁
大語言模型的前世、今生與未來_第5頁
已閱讀5頁,還剩13頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

內(nèi)容目錄內(nèi)容目錄大語言模型:NLP技術(shù)的奇點(diǎn)時(shí)刻 4技術(shù)探索:深度學(xué)加推進(jìn)數(shù)據(jù)的無損壓縮 4技術(shù)應(yīng)用:預(yù)訓(xùn)練言型成為NLP主流 5技術(shù)躍遷:大語言型能打開通往AGI之路 5OpenAI與GPT:算法、工程、商業(yè)的融合 6GPT系列模型的發(fā)展:千錘百煉,終見涌現(xiàn)” 6如何訓(xùn)練一個(gè)ChatGPT:預(yù)訓(xùn)練獲得智商”,指令微調(diào)提升情商” 7模型智能的涌現(xiàn)是生成式AI浪潮的充要條件 8大模型應(yīng)用:數(shù)據(jù)知代理(Agent)能力 10外部數(shù)據(jù):三條融垂數(shù)據(jù)打造大模型的術(shù)徑 10與In-ContextLearning的實(shí)現(xiàn)方式案例 代理(gen:為大模加上四肢,強(qiáng)化復(fù)任處理能力 13與計(jì)算機(jī)內(nèi)部交互插(Plugins)與代碼解釋(CodeInterpreter) 13與物理世界交互:RoboticsTransformer14上下文長(zhǎng)度:應(yīng)用新關(guān)鍵靶點(diǎn) 15“大模型小型化:應(yīng)用落地的降本之道 16應(yīng)用分析框架:通能與外部能力的組合 17投資建議 18風(fēng)險(xiǎn)提示 19圖表目錄圖表目錄圖1.人工智能底層算法探索歷程(1958-2017年) 4圖2.自然語言處理(NLP)發(fā)生的三次技術(shù)式移 5圖3.本次以GPT為代的生成式AI技術(shù)進(jìn)步路圖 6圖4.OpenAI的系列模型發(fā)展歷程 7圖5.GPT模型訓(xùn)練流程 8圖6.當(dāng)模型規(guī)模達(dá)到一程度時(shí)將會(huì)出現(xiàn)涌現(xiàn)現(xiàn)象 9圖7.思維鏈提示可以顯提升大語言模型的能 9圖8.打造垂域模型的三基本方法 10圖9.是對(duì)LLM參數(shù)高效的微調(diào)范式 12圖10.Langchain+向量據(jù)庫打造企業(yè)專屬識(shí)問答系統(tǒng) 12圖大模型驅(qū)動(dòng)的自代理系統(tǒng) 13圖12.OpenAI發(fā)布首批70余款GPT-4插件 14圖13.執(zhí)行邏輯計(jì)算的碼解釋器插件示例 14圖14.機(jī)器人控制與思鏈推理結(jié)合示例 15圖15.大模型驅(qū)動(dòng)的自代理系統(tǒng) 16圖16.模型小型化的主實(shí)現(xiàn)路徑 16圖17.參數(shù)量化能夠顯降低大模型的推理本 17大語言模型:NLP技術(shù)的奇點(diǎn)時(shí)刻技術(shù)探索:深度學(xué)習(xí)加速推進(jìn)數(shù)據(jù)的無損壓縮·”GPURNN,還是其改進(jìn)后的變體LSTM輪生成式AI浪潮的起源Transformer,現(xiàn)。圖1.人工能層法探歷程(1958-2017年) 時(shí)間事件1958年計(jì)算機(jī)科學(xué)家羅森布拉特提出了由兩層神經(jīng)元構(gòu)成的神經(jīng)網(wǎng)絡(luò),這種網(wǎng)絡(luò)被稱為感知機(jī)(Perceptron),是最基本的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)1982年約翰·霍普菲爾德提出了一種具有記憶存儲(chǔ)能力的Hopfield網(wǎng)絡(luò),開啟了循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeuralNetwork,RNN)的時(shí)代,也是LSTM(LongShort-TermMemory)、Transfomer模型的奠基者1986年“AI教父”杰弗里·辛頓發(fā)明了適用于多層感知器的反向傳播算法,它成為了日后訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)1989年楊立昆(現(xiàn)任Facebook首席人工智能科學(xué)家)等人提出了卷積神經(jīng)網(wǎng)絡(luò)(CNN,ConvolutionalNeuralNetworks),被廣泛應(yīng)用于計(jì)算機(jī)視覺的圖像處理領(lǐng)域2012年AlexNet()GPU(OpenAIIlyaSutskever)2016年AlphaGo,DeepMind動(dòng)中,取得了巨大的突破2017年AttentionisAllYouNeedAttention—Transformer。Bert、GPT隨之孕育而生CSDN、阿里云開發(fā)者社區(qū)、財(cái)通證券研究所NLP主流從單一小模型到預(yù)訓(xùn)練模型的范式轉(zhuǎn)移。語言模型的本質(zhì)是對(duì)任意一段文本序列進(jìn)行概率建模,用一個(gè)高維向量來表示一個(gè)token的全部特征。早期的研究者發(fā)明了的語義和語法關(guān)系,是深度學(xué)習(xí)應(yīng)用在NLP——Google2018年提出的BERT(BidirectionalEncoderRepresentationfromTransformersTransformer)然而,OpenAIGPT(GenerativePre-TrainedTransformerTransformer)“下一個(gè)詞預(yù)測(cè)”,以及擴(kuò)大訓(xùn)練模型的參數(shù)量和數(shù)據(jù)量,機(jī)器能夠?qū)ξ谋菊Z料擁有與人類相似的“理解”能力。當(dāng)前,OpenAI與ChatGPT的成功,使得運(yùn)用大語言模型做“預(yù)訓(xùn)練+提示”的范式,逐步取代了BERT時(shí)代“預(yù)訓(xùn)練+下游任務(wù)改造”的范式,成為了NLP業(yè)內(nèi)新的主流。生的次術(shù)式移 Pre-trainingofDeepBidirectionalTransformersforLanguageUnderstanding(JacobDevlinChangAGI之路直到2022年底ChatGPT橫空出世,學(xué)界和工業(yè)界開始意識(shí)到,OpenAI對(duì)生成類模型(GPT)和算法規(guī)?;⊿calability)的兩個(gè)基礎(chǔ)技術(shù)路線押注,可能是讓機(jī)器獲得智能的可行路徑,甚至是打開通往通用人工智能(AGI,ArtificialGeneralIntelligence)這一終極理想的金鑰匙。因此,我們有理由相信,當(dāng)前以ChatGPT為代表的大語言模型開啟的本輪科技浪潮,其重要性可能高于過去任何一次AI技術(shù)的突破,實(shí)現(xiàn)AGI的愿景可能已并不遙遠(yuǎn)。當(dāng)然,技術(shù)的突破與未來的潛在瓶頸也正都源于此,大模型與生俱來的Hallucination(幻覺)使其輸出的內(nèi)容天生具有可靠性低的特點(diǎn);另一方面,大模型的模型規(guī)?;芰Φ奶旎ò逡灿写M(jìn)一步探索。因此,我們認(rèn)為提升模型可靠性和提升模型性能共同構(gòu)成了大模型未來迭代的核心靶點(diǎn)。圖3.本以GPT為表生式AI技進(jìn)路圖 EmergentAbilitiesofLargeLanguageModels(Jason等OpenAIGPT:算法、工程、商業(yè)的融合GPT系列模型的發(fā)展歷程:千錘百煉,終見“涌現(xiàn)”對(duì)PTP~:208年6OpeAITransformerDecoder10月GoogleEncoder年,但OpenAI發(fā)現(xiàn)Zero-shotFew-shot2020175B涌現(xiàn)能力的出現(xiàn)(P.:peAI在3InstructGPTCodexRH,enoceentLearngomHanback”(也成為了開啟本輪生成式AIChatGPT背后的核心功臣。AI的曙光已現(xiàn)(:023年3OpnAI.5的SOTA(State-Of-The-Art)(預(yù)測(cè)最終模型的LosG-48Agnn圖4.OpenAI的GPT列發(fā)展程 4enialRot(pn如何訓(xùn)練一個(gè)T商”(BaseModel)(Pre-train)UChatGPT(步解鎖OpenAI”(alignmenttax)。圖5.GPT型練程 MicrosoftBuild官網(wǎng)、財(cái)通證券研究所AI浪潮的充要條件模型能力的涌現(xiàn)是生成式AI浪潮的充要條件。PowerLawGoogle2022EmergentAbilities,即涌現(xiàn)能力。例如,研究者發(fā)現(xiàn)當(dāng)大語言模型規(guī)模達(dá)到一定程度時(shí),思維鏈提示(ChainofThoughtprompting,CoT)可以顯著提升大語言模型的性能,尤其適用于處理涉及數(shù)學(xué)或推理的復(fù)雜任務(wù):Zero-shot-CoTprompt“Let'sthinkstepbystep”這幾個(gè)詞;Few-shot-CoTprompt我們認(rèn)為,CoT的意義在于模型可能已經(jīng)學(xué)到了底層的推理過程而非統(tǒng)計(jì)意義上記住了輸入-輸出的概率分布,這是模型擁有“智能”的一個(gè)重要體現(xiàn),也顯著打開了大語言模型未來應(yīng)用的可為空間。圖圖6.當(dāng)模型規(guī)模達(dá)到一定程度時(shí)將會(huì)出現(xiàn)“涌現(xiàn)”現(xiàn)象EmergentAbilitiesofLargeLanguageModels(Jason等圖7.思維鏈提示可以顯著提升大語言模型的性能圖7.思維鏈提示可以顯著提升大語言模型的性能Chain-of-ThoughtPromptingElicitsReasoninginLargeLanguageModels(JasonXuezhi等大模型應(yīng)用:數(shù)據(jù)感知與代理(Agent)能力外部數(shù)據(jù):三條融合垂域數(shù)據(jù)打造大模型的技術(shù)路徑Know-how做指令微調(diào)(;型的參數(shù)中(;(In-ContextLearning)Prompt中(。打造域型三基方法 Llama2OpenFoundationandFine-TunedChatModels(HugoTouvronLouisMartin等方案①(e(①適合于有大量垂域數(shù)據(jù)和算力購買能力的大型公司;方案②實(shí)現(xiàn)難度次之,模型能夠具備一定的垂域知識(shí)零樣本學(xué)習(xí)能力,算力消耗集中在微調(diào)和推理。方案②本質(zhì)是借鑒了Bert做下游任務(wù)改造的思路。然/方案③In-ContextLearningprompt③aSlasavcepromptLength)In-ContextLearning的實(shí)現(xiàn)方式案例DeltaTuning:AComprehensiveStudyofParameterEfficientMethodsforPre-trainedLanguageModels(DeltaParemters)Delta-Tuning。在眾多Delta-TuningLoRA(Low-RankAdaptationofLargeLanguageModelsLoRATransformerAB175B為例,與Adam調(diào)優(yōu)的LoRA13圖圖9.Delta-Tuning是對(duì)LLM參數(shù)高效的微調(diào)范式LoRALow-RankAdaptationofLargeLanguageModels(EdwardJHuShenDeltaTuningAComprehensiveStudyofParameterEfficientdsorretriednugees(gi,uianLangchain+LangChainI/01)(、2)(LangChainI功能。因此,使用LangChain(poptpromptprompt+”圖圖10.Langchain+向量數(shù)據(jù)庫打造企業(yè)專屬知識(shí)庫問答系統(tǒng)LangChain官網(wǎng),財(cái)通證券研究所代理(n:為大模型加上四肢,強(qiáng)化復(fù)雜任務(wù)處理能力Aen1)2)OpenAILilianAI大腦+、記憶+長(zhǎng)(API+)GitHub上關(guān)注度極高的AutoGPT沿”。大模驅(qū)的主理統(tǒng) Github、財(cái)通證券研究所(Plugins)(CodeInterpreter)GPT-420235I70pluinGP4數(shù)據(jù)、調(diào)用公司或個(gè)人資料庫、執(zhí)行訂機(jī)票等操作。插件功能的本質(zhì)是在輸入ChatGPTprompt“API20237ChatGPTCodeInterpreterPlusPythonChatGPT(100M、分個(gè)面向自然語言編程的過程。圖12.OpenAI布批70余款GPT-4插件 執(zhí)行輯算代解器插示例 數(shù)據(jù)源量位財(cái)證研所 OpenAI官、通研究所與物理世界交互:RoboticsTransformer20237nd推出新款機(jī)器人模型Robocsnsoer2(。2(VLA)的ChatGPT。1129138122132132106127(。我們認(rèn)為,RT-2展示了構(gòu)建通用機(jī)器人的前景,打開了大模型與物理世界的交互窗口。隨著多模態(tài)融合的大模型日益成熟,以及以人形機(jī)器人為代表的新物理載體在硬件端迭代升級(jí),大模型的代理能力將被賦予更豐富的含義。機(jī)器控與維推結(jié)合例 數(shù)據(jù)來源:谷歌DeepMind官網(wǎng)、財(cái)通證券研究所上下文長(zhǎng)度:應(yīng)用創(chuàng)新的關(guān)鍵靶點(diǎn)如前文所述,以GPTprompt中(In-ConexLann(nun3.1(32Agenptgneeng更長(zhǎng)的上下文長(zhǎng)度->->32k,Claude100k,初代開源的LLaMa2k,LLaMa2.0k)(Transformer的計(jì)算復(fù)雜度和空間復(fù)雜度隨序列長(zhǎng)度N、2)(Attention(LiBAenonwhLnearBaeahAeno(圖15.大模型驅(qū)動(dòng)的自主代理系統(tǒng)GPU(Multi-QueryAttention,圖15.大模型驅(qū)動(dòng)的自主代理系統(tǒng)模型名稱最高輸入發(fā)布者開源情況Claude-1.3-100K100KAnthropic?商用MPT-7B-storywriter65KMosaicML?開源且免費(fèi)商用ChatGLM2-6B32K清華&智譜?開源但收費(fèi)商用GPT-4-32k32KOpenAI?商用LongChat-13B-16K16KLM-SYS?開源但不可商用GPT-3.5-Turbo-16K16KOpenAI?商用MPT-30B-chat8KMosaicML?開源但不可商用XGen-7B系列8KSalesforce?部分開源且免費(fèi)商用PaLM28KGoogle?商用LLaMa24KMeta?開源且免費(fèi)商用LLaMa12KMeta?開源但不可商用Anthropic官網(wǎng)、Dataleaner、MetaAI官網(wǎng)、財(cái)通證券研究所“大”模型“小”型化:應(yīng)用落地的降本之道模型型的要現(xiàn)徑 類別 技術(shù) 描述壓縮參數(shù)參數(shù)剪枝設(shè)計(jì)關(guān)于參數(shù)重要性的評(píng)價(jià)準(zhǔn)則,基于該準(zhǔn)則判斷網(wǎng)絡(luò)參數(shù)的重要程度,刪除冗余參數(shù)參數(shù)量化將網(wǎng)絡(luò)參數(shù)從32位全精度浮點(diǎn)數(shù)量化到更低位數(shù)低秩分解將高維參數(shù)向量降維分解為稀疏的低維向量參數(shù)共享利用結(jié)構(gòu)化矩陣或聚類方法映射網(wǎng)絡(luò)內(nèi)部參數(shù)壓縮結(jié)構(gòu)緊湊網(wǎng)絡(luò)從卷積核、特殊層和網(wǎng)絡(luò)結(jié)構(gòu)3個(gè)級(jí)別設(shè)計(jì)新型輕量網(wǎng)絡(luò)知識(shí)蒸餾將較大的教師模型的信息提煉到較小的學(xué)生模型混合方式混合方式前幾種方法的結(jié)合((FLOPs)LiuFLOPs50%左右時(shí)10%10%左參數(shù)化夠著低模型推成本 LearningtoExploreDistillabilityandSparsabilityAJointFrameworkforModelCompressionLiuJiajiongCao應(yīng)用分析框架:通用能力與

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論