計算機-OpenAI發(fā)布o1模型Scaling law持續(xù)有效_第1頁
計算機-OpenAI發(fā)布o1模型Scaling law持續(xù)有效_第2頁
計算機-OpenAI發(fā)布o1模型Scaling law持續(xù)有效_第3頁
計算機-OpenAI發(fā)布o1模型Scaling law持續(xù)有效_第4頁
計算機-OpenAI發(fā)布o1模型Scaling law持續(xù)有效_第5頁
已閱讀5頁,還剩32頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

本報告亦可能由中信建投(國際)證券有限證券研究報告·行業(yè)動態(tài)計算機計算機維持強于大市應(yīng)瑛yingying@SAC編號:S1440521100010市場表現(xiàn) -5%-15%-25%-35%OpenAI發(fā)布推理模型o1系列,其在數(shù)學(xué)、編程、理科專業(yè)知識等方面表現(xiàn)較好,但在某些自然語言任務(wù)相對弱勢。根據(jù)我們測算,OpenAIo1預(yù)訓(xùn)練需要用3.2萬張H100訓(xùn)練90天,一定程度上反應(yīng)預(yù)訓(xùn)練階段的“Scalinglaw”仍然成立。展望未來,“Pre-TrainingScalinglaw”或?qū)⒅鸩睫D(zhuǎn)向“Post-TrainingScalinglaw維持強于大市應(yīng)瑛yingying@SAC編號:S1440521100010市場表現(xiàn) -5%-15%-25%-35%相關(guān)研究報告相關(guān)研究報告關(guān)注端側(cè)關(guān)注端側(cè)AI進展二季度業(yè)績,數(shù)據(jù)中心業(yè)務(wù)強勁增長硬件投資機會繼續(xù)看多國產(chǎn)化方向繼續(xù)看好國產(chǎn)化需求24.09.0824.09.02本期建議:金山辦公、納思達、道通科技、達夢數(shù)據(jù)、中控技術(shù)、博思軟件、神州數(shù)碼、國能日新、海光信息、中國軟件。24.09.0224.09.0224.09.0124.08.25上期回顧:上期建議組合為——金山辦公、納思達、道通科技、達夢數(shù)據(jù)、中控技術(shù)、博思軟件、神州數(shù)碼、國能日新、海光信息、中國軟件,同權(quán)重下上期組合漲幅為+1.22%,同期計算機(申萬)指數(shù)漲幅為-0.52%,組合超額收益+1.74%。24.09.0124.08.25持續(xù)關(guān)注標(biāo)的見報告正文部分宏觀經(jīng)濟下行風(fēng)險、應(yīng)收賬款壞賬風(fēng)險、行業(yè)競爭加劇、國際環(huán)計算機行業(yè)動態(tài)報告一、行情回顧 1二、投資建議 1三、投資組合 四、產(chǎn)業(yè)要聞 五、重要公告 六、風(fēng)險提示 計算機行業(yè)動態(tài)報告一、行情回顧本周,計算機板塊跑贏大盤。9月7日至9月13日,計算機(申萬)指數(shù)下跌0.52%,跑贏滬深300指數(shù)1.71pp。在申萬一級行業(yè)中排第3位。二級子行業(yè)(申萬)中,計算機設(shè)備下跌1.96%,IT服務(wù)上漲0.09%,軟件開發(fā)上漲0.09%。3210個股方面,漲幅前五個股依次為:南天信息(24.87%)、海聯(lián)訊(20.61%)、通達海(20.53%)、立方數(shù)科(17.76%)、法本信息(13.46%);跌幅前五個股依次為:*ST有樹(-20.54%)、飛天誠信(-19.00%)、創(chuàng)識科技(-18.88%)、華銘智能(-15.59%)、ST易聯(lián)眾(-11.51%)。圖表2:計算機行業(yè)(申萬)個股周漲幅前十名(%)圖表3:計算機行業(yè)(申萬)個股周跌幅前十名(%) 通達海啟明信息 雄帝科技啟明信息 雄帝科技華銘智能創(chuàng)識科技飛天誠信12.36 0.44)1計算機行業(yè)動態(tài)報告二、本周周觀點2.1OpenAI發(fā)布推理模型o1,大模型發(fā)展進入新時代OpenAIo1系列模型發(fā)布,o1-preview和o1mini已向用戶推送。9月13日凌晨,OpenAI宣布正式發(fā)布新推理系列模型o1,也即前期傳聞中的草莓模型。據(jù)OpenAI表示,o1代表一種全新的能力,重要性足以將計數(shù)器重置為“1”。其中,o1-preview為o1的預(yù)覽版;o1mini則為規(guī)模更小、成本更低的版本,其針對STEM應(yīng)用的各個訓(xùn)練和數(shù)據(jù)階段進行了優(yōu)化,但世界知識相對有限。目前,ChatGPTPlus和Team用戶已經(jīng)可以訪問o1-preview和o1-mini,API使用等級5(已消費1000美元且訂閱已超過30天)的開發(fā)者亦可以進行調(diào)用。數(shù)據(jù)來源:OpenAI官網(wǎng),中信建投現(xiàn)行成本高企,未來或?qū)γ赓M用戶開放。目前,ChatGPTPlus和Team用戶已經(jīng)可以訪問o1-preview和o1-mini,o1-preview限制為每周30條消息,o1-mini為每周50條,限制周期由3小時提升至一周。對于使用等級5的開發(fā)者而言,除了API調(diào)用速率被限制為20RPM外,通過調(diào)用成本更是翻了數(shù)倍,其中o1-preview的輸出15美元/百萬token)。不過據(jù)OpenAI表示,未來計劃向所有ChatGPT免費用戶開放o1-mini的使用權(quán);token價格每1-2年下降10倍的趨勢可能還會繼續(xù)。圖表5:OpenAI部分模型API調(diào)用價格項目GPT-4o-miniGPT-4oo1-minio1-preview資料來源:OpenAI官網(wǎng),中信建投2計算機行業(yè)動態(tài)報告相較于以往的大語言模型,o1的特點是經(jīng)過強化學(xué)習(xí)訓(xùn)練來執(zhí)行復(fù)雜推理任務(wù),從而可以在響應(yīng)用戶之前產(chǎn)生一個很長的內(nèi)部思維鏈(CoT反應(yīng)為數(shù)十秒的“思考”過程。就效果而言,o1模型在多個方面具備較1)o1模型在廣泛的基準測試中的表現(xiàn)優(yōu)于GPT-4o,部分領(lǐng)域超越人類專家。在多個ML基準測試中,o1的表現(xiàn)都遠超o1的表現(xiàn),其中在啟用視覺感知功能后,o1在MMMU上的得分為78.2%,成為第一個與人類專家相媲美的模型;同時,o1模型在57個MMLU子類別的54個中勝過GPT-4o;此外,OpenAI在GPQADiamond(用于測試化學(xué)、物理和生物學(xué)方面專業(yè)知識的基準)上對o1進行了評估,并招募了具有博士學(xué)位的專家來對比,o1的表現(xiàn)超過人類專家,意味著該模型在解決部分問題時比博士更熟練。圖表6:o1在廣泛的基準測試中都比GPT-4o有所改進數(shù)據(jù)來源:OpenAI官網(wǎng),中信建投2)o1模型邏輯能力強,AIME測試中表現(xiàn)優(yōu)異。由于前沿模型在MATH和GSM8K等測試中已經(jīng)達到了頂尖水平,缺乏區(qū)分度,OpenAI選取AIME考試(美國數(shù)學(xué)邀請賽,在美國難度僅次于奧林匹斯競賽USAMO)進行測試。在2024年的AIME考試中,GPT-4o平均只解決了12%(1.8/15)的問題;o1模型在單個樣本測試中平均解決74%(11.1/15在64個樣本共識中解決83%(12.5/15在使用學(xué)習(xí)評分函數(shù)對1000個樣本重新排名時解決93%(13.9/15)相當(dāng)于全美前500的學(xué)生。3計算機行業(yè)動態(tài)報告數(shù)據(jù)來源:OpenAI官網(wǎng),中信建投3)o1具備較強的編程能力,允許多次提交下表現(xiàn)高于IOI金牌。OpenAI在o1的基礎(chǔ)上針對編程能力進行了微調(diào),生成編程模型o1-ioi。該模型在IOI2024(2024年國際信息學(xué)奧林匹克競賽)中,隨機提交50份答案平均獲得156分;按通過測試用例的時間選擇50份答案獲得213分;如果放寬提交問題次數(shù)至10000次,o1-ioi可以獲得362.14分,高于金牌門檻。此外,o1系列模型同樣在Codeforces編程測試中表現(xiàn)良好,按照允許提交10次答案的規(guī)則,o1-ioi的表現(xiàn)獲得了1807分,超過93%的對手,遠高于GPT-4o的808分。數(shù)據(jù)來源:OpenAI官網(wǎng),中信建投4)在邏輯性較強的類別中,o1在盲選中更受歡迎。OpenAI在多個領(lǐng)域的開放式問題中評估了用戶對于o1-preview和GPT-4o的偏好。在盲評中,o1-preview在數(shù)據(jù)分析、編碼和數(shù)學(xué)等推理能力較強的類別中更受歡迎;在某些自然語言任務(wù)上弱于GPT-4o。4計算機行業(yè)動態(tài)報告數(shù)據(jù)來源:OpenAI官網(wǎng),中信建投通過強化學(xué)習(xí)和思維鏈,o1模型在邏輯思考能力上較傳統(tǒng)大語言模型有了顯著提升,尤其在數(shù)學(xué)、編程、以及化學(xué)、物理和生物等專業(yè)知識上表現(xiàn)較強。但仔細對比o1和GPT-4o在基礎(chǔ)測試的表現(xiàn)(圖表6),o1在“APEnglishLang”、“APEnglishLit”、“SATEBRW”、“PublicRelations”等語言文字類項目提升并不明顯,甚至在自然語言任務(wù)的盲選中弱于GPT4-o。我們有以下思考:1)o1模型突破了傳統(tǒng)大模型在數(shù)學(xué)、邏輯等問題上的弱項,使之能夠在更加專業(yè)的領(lǐng)域解決問題,陶哲軒實測滿血版o1認為已經(jīng)達到“平庸卻又小有能力的研究生”水平,有望強化大模型在專業(yè)領(lǐng)域的應(yīng)用;2)數(shù)學(xué)、編程等類型任務(wù)存在明確的獎勵模型(數(shù)學(xué)任務(wù)答案相對固定,編程類任務(wù)更是可以由代碼能否運行判斷使用強化學(xué)習(xí)(ReinforcementLearning,RL)的效果更好,而文字類問題難以明確獎勵模型,則表現(xiàn)更差;3)展望未來,更需要關(guān)注如何將模型的推理能力泛化到其他領(lǐng)域(設(shè)計更通用的獎勵模型)。根據(jù)我們測算,OpenAIo1預(yù)訓(xùn)練需要用3.2萬張H10構(gòu)成,其中兩個1用于向前傳播,另有55B被用做注意力機制的共享,則GPT-4的激活參數(shù)量約為280B,我們假定o1模型激活參數(shù)量和GPT-4的兩倍,達到560B;2)GPT-4的預(yù)訓(xùn)練數(shù)據(jù)集token量為13B,我們假定o1模型接近其兩倍,達到25B;3)GPT-4的訓(xùn)練時間約為90-100天,我們?nèi)≈虚g值95天,并假定o1的訓(xùn)練周期為90天;4)GPT-4的GPU利用率在32%到36%之間,我們?nèi)≈虚g值34%,并假定o1GPU利用率也為34%;5)根據(jù)OpenAI在ScalingLaws論文中給出的經(jīng)驗公式計算(C=rT≈6*P*D,P為模型參數(shù)量,D為訓(xùn)練集token大小,r為訓(xùn)練集群硬件FLOPS總吞吐),則OpenAIo1預(yù)訓(xùn)練需要用3.2萬張H100。相較于GPT-4利用2.5萬張A100訓(xùn)練,我們預(yù)計OpenAIo1利用3.2萬張H100訓(xùn)練90天,一定程度上反應(yīng)訓(xùn)練階段的“Scalinglaw”仍然成立。模型GPT-4OpenAIo1模型激活參數(shù)量(B)預(yù)訓(xùn)練Token量(T)5計算機行業(yè)動態(tài)報告理論算力需求(FLOPS)訓(xùn)練天數(shù)GPU型號單卡算力(TFLOPS,F(xiàn)P16)算力利用率(MFU)構(gòu)建大模型通常包括預(yù)訓(xùn)練、有監(jiān)督微調(diào)、獎勵建模、強化學(xué)習(xí)、語言模型訓(xùn)練等階段。以典型的LLM架構(gòu)Transformer為例,預(yù)訓(xùn)練主要將單詞及其位置轉(zhuǎn)換為向量形式,從而能夠通過距離量化語義相關(guān)性,便于后續(xù)通過概率分布預(yù)測下一個單詞;有監(jiān)督微調(diào)則利用高質(zhì)量數(shù)據(jù)集合(輸入的問題和理想的輸出結(jié)果)使得模型能夠輸出更貼合用戶需求的答案;獎勵建模和強化學(xué)習(xí)則通過獎勵函數(shù)對模型生成的回復(fù)進行反饋,從而不斷優(yōu)化輸出策略,普遍的做法是使用人類反饋強化學(xué)習(xí)(RLHF)進行訓(xùn)練,即利用人類的偏好作為價值函數(shù),優(yōu)化模型生成效果。數(shù)據(jù)來源:CSDN,中信建投技術(shù)、算力、數(shù)據(jù)制約訓(xùn)練側(cè)“Scalinglaw”發(fā)展。在上述架構(gòu)中,大模型的能力主要來源于訓(xùn)練過程,數(shù)據(jù)量越大,數(shù)據(jù)質(zhì)量越高,則大模型生成內(nèi)容的能力越強,這也是模型“Scalinglaw”的由來——通過不斷擴大模型的參數(shù)規(guī)模,擴大訓(xùn)練數(shù)據(jù)集,構(gòu)建更強的模型。然而,經(jīng)過MoE架構(gòu)強化過后,當(dāng)前業(yè)界主流的模型參數(shù)規(guī)?;揪S持在了600-700B左右,似乎遭遇了發(fā)展瓶頸,我們推測主要原因如下:1)更高參數(shù)規(guī)模的模型訓(xùn)練比較復(fù)雜,尤其當(dāng)參數(shù)規(guī)模提升到近萬億規(guī)模,模型進一步調(diào)整的技術(shù)方式仍待突破;2)算力規(guī)模一定程度制約了模型發(fā)展。英偉達H100目前可以做到單一集群3.2萬張卡充分互聯(lián),每2小時會出錯一次(Founder6計算機行業(yè)動態(tài)報告Park訪談拾象科技CEO李廣密)。一旦算力集群增加到10萬卡,可能每20-30分鐘即會出錯一次,對數(shù)據(jù)中心的運維能力要求較高,否則會導(dǎo)致算力利用率明顯下降。此時需要性能更強的算力卡出現(xiàn)。3)高質(zhì)量數(shù)據(jù)缺失。早有消息稱大模型訓(xùn)練已經(jīng)耗盡了高質(zhì)量數(shù)據(jù),因此如果只是簡單提升訓(xùn)練集規(guī)模,往往重復(fù)的數(shù)據(jù)占據(jù)了主要部分,從而對模型能力的提升有限。而數(shù)據(jù)合成的技術(shù)仍未能突破,同樣一定程度上制約了模型的發(fā)展。推理端技術(shù)接力訓(xùn)練側(cè)發(fā)展。當(dāng)訓(xùn)練側(cè)的“Scalinglaw”陷入瓶頸,更多學(xué)者開始關(guān)注推理側(cè)的優(yōu)化空間,我們分析了OpenAIo1模型引用的文章及相關(guān)研究,其使用的強化學(xué)習(xí)不僅能夠通過提高推理側(cè)的思考時間,從而優(yōu)化模型表現(xiàn);還能夠在訓(xùn)練過程中生成高質(zhì)量數(shù)據(jù),解決天然數(shù)據(jù)缺失的問題。1)OpenAI最先嘗試了生成+驗證的方式,在《TrainingVerifierstoSolveMathWordProblems》中,OpenAI利用訓(xùn)練的模型(GPT-3)對訓(xùn)練集中所有的問題生成了100條回復(fù),根據(jù)生成的回復(fù)和標(biāo)準回答訓(xùn)練了驗證器。而后,由模型對測試集問題生成100條回復(fù),并使用上述驗證器篩選得分最高的回答作為結(jié)果,最終使得GPT-3175B的準確率從33%的提升到了57%;使用驗證器的GPT-36B達到了約40%的準確率,超過了微調(diào)數(shù)據(jù)來源:TrainingVerifierstoSolveMathWordProblems,中信建投2)思維鏈(ChainofThoughtPrompt,CoT)促使大語言模型一步一步解決問題。人類在思考復(fù)雜問題時會將問題拆解,逐步實現(xiàn)最終目標(biāo)。CoT思想則類比人類思考過程,使大模型在推理過程中把復(fù)雜問題拆解成若干簡單步驟,從用戶提出的問題出發(fā),逐步生成正確答案。起初,CoT僅僅只是在測試時附上包含推理過程的示例(例如圖表11中附上了加法運算過程就大幅提高了模型效率;后續(xù)的研究則考慮多次生成結(jié)果,選取最優(yōu)部分作為回答;同時還可以利用置信度高的生成結(jié)果作為微調(diào)提高模型的能力。7計算機行業(yè)動態(tài)報告數(shù)據(jù)來源:Chain-of-ThoughtPromptingElicitsReasoninginLargeLanguageModels,中信建投3)STaR與Quiet-STaR:通過推理改進模型性能。不同于驗證器和CoT集中于在大模型基礎(chǔ)上提高生成效果,STaR與Quiet-STaR致力于探究通過推理過程改進模型性能。其中,STaR使用訓(xùn)練集生成從問題到回答的推理過程,并利用正確的例子微調(diào)模型,優(yōu)化性能表現(xiàn)。而對于訓(xùn)練集中無法正確回答的例子,在模型生成推理的過程中為模型提供正確的回答(合理化,Rationalization便于模型生成推理過程進行學(xué)習(xí),從而增強數(shù)據(jù)集。通過這樣的方式,STaR在常識推理任務(wù)上表現(xiàn)良好,但難以解決GSM8K等復(fù)雜數(shù)據(jù)集。圖表14:STaR的概述數(shù)據(jù)來源:STaR:Self-TaughtReasonerBootstrappingReasoningWithReasoning,中信建投而Quiet-STaR在STaR的基礎(chǔ)上更進一步。具體而言,STaR聚焦于數(shù)學(xué)等特定的數(shù)據(jù)集,對于其他類似數(shù)據(jù)的泛化能力較弱;而Quiet-STaR同樣利用了STaR生成推理過程進行學(xué)習(xí)的思想,但將生成推理從問題細化至每一個token(并行計算),從而增強了模型對廣泛的適用性。同時,Quiet-STaR會給出每一個token的正確8計算機行業(yè)動態(tài)報告law”)。數(shù)據(jù)來源:Quiet-STaR:LanguageModelsCanTeachThemselvestoThinkBeforeSpeaking,中信建投回顧訓(xùn)練“Scalinglaw”發(fā)展與推理技術(shù)的探索,我們認為大模型發(fā)展或已迎來新的發(fā)力點:1)模型的自學(xué)習(xí)能力能夠強化Post-Training過程。CoT和STaR等研究都探索了利用模型推理過程中生成的內(nèi)容,進行模型微調(diào)的作用,并取得了較好的成效,這種自行強化學(xué)習(xí)的過程能夠放大算力對模型提升的作用,產(chǎn)生“Post-TrainingScalinglaw”;2)推理階段思考深度(時間)或?qū)⒊蔀椤癛easoningScalinglaw”。在Quiet-STaR的研究中,提高思考量會帶來模型能力的同步提升,這與o1相一致(OpenAIo1發(fā)布前被稱為Q*,媒體認為來源于Quiet-STaR或?qū)⒊蔀榇竽P托碌陌l(fā)展方向。3)推理過程產(chǎn)生的內(nèi)容或?qū)⒆鳛楦哔|(zhì)量語料進行模型訓(xùn)練。無論是CoT還是STaR,其推理過程中都將產(chǎn)生大量高質(zhì)量的語料,或許能夠為作為模型成長的養(yǎng)料,帶來數(shù)2.3多模態(tài)、訓(xùn)練與推理并行,探索AGI發(fā)展之路總體來看,目前市場主流的AGI探索路徑主要有三類:1)多模態(tài)路線:人類的信息獲取窗口多樣,因而有觀點認為只靠語言無法實現(xiàn)AGI。同時,相較于公開的文本數(shù)據(jù),圖像、視頻、音頻等數(shù)據(jù)的總量更大,且包含的信息量也更豐富,如果能夠讓大模型理解更多的模態(tài)(實現(xiàn)模態(tài)上的“ScalingLaw”或?qū)⑻嵘竽P偷膹?fù)雜推理能力,向AGI進一步邁進。年初,OpenAI的Sora為行業(yè)指明了DiT路線,帶動了視覺模型的涌現(xiàn);但目前多模態(tài)的技術(shù)路徑仍未統(tǒng)一,尤其還有更多維度的信息尚未囊括,未來或?qū)⒊霈F(xiàn)更好的架構(gòu)。不過可以確定的是,多模態(tài)一定可以帶來模型交互能力的提升,從而提高模型的泛化能力。2)訓(xùn)練路線:雖然前文中提到了當(dāng)前訓(xùn)練側(cè)“ScalingLaw”遭遇的瓶頸,但誰也無法想象算力突破后的模型表現(xiàn),因此大規(guī)模算力集群仍然為發(fā)展方向之一。同時考慮到算力集群構(gòu)建的難度,一旦訓(xùn)練陸續(xù)被驗證為真,后續(xù)廠商很難再進行趕超。9計算機行業(yè)動態(tài)報告圖表16:多模態(tài)機器學(xué)習(xí)圖表17:Grok-310萬卡算力集群俯瞰圖3)推理路線:利用自學(xué)習(xí)、強化學(xué)習(xí)的方式能夠提升模型的邏輯推理能力,Claude-Sonnet3.5和OpenAIo1都已經(jīng)在該路線上做出了探索,并在代碼和數(shù)學(xué)能力上做出了顯著提升。正如2.2中所述,推理階段的思考深度(時間)或?qū)⒊蔀樾碌摹癝calinglaw”;同時模型的自學(xué)習(xí)能力,以及推理過程中都將產(chǎn)生大量高質(zhì)量的語料都可能產(chǎn)生飛輪效應(yīng),加速模型發(fā)展。由于AGI強調(diào)的是通用,更需要關(guān)注的是,自學(xué)習(xí)和強化學(xué)習(xí)的效果能否從數(shù)學(xué)、代碼等邏輯需求強的部分外推至通用領(lǐng)域。圖表18:o1性能隨著訓(xùn)練時間和測試時間計算數(shù)據(jù)來源:OpenAI官網(wǎng),中信建投我們認為,雖然上述三條通往AGI的主流探索路線尚無定論,但彼此并非矛盾關(guān)系,甚至還可能出現(xiàn)乘數(shù)效應(yīng)。本次OpenAIo1的發(fā)布,正式將推理路線推向了臺前,有望促進更多跟隨者在該方向做出探索,參考Sora發(fā)布后多模態(tài)大模型的加速涌現(xiàn),新一輪的模型或許已經(jīng)在路上。就產(chǎn)業(yè)端而言,短期內(nèi)模型推理會帶來更高的算力需求(生成CoT會消耗大量的token),更好的模型也將進一步賦能AI應(yīng)用的落地,建議關(guān)注產(chǎn)業(yè)鏈相計算機行業(yè)動態(tài)報告9月16日,微軟發(fā)布Microphone365CopilotWave2更新,并通過視頻展示Pages、Excel、Outlook、PowerPoint、SharePoint和Agentbuilder的特色功能,以幫助用戶大幅提高工作效率:在Pages中,用戶在工作時向Copilot提問,使其從互聯(lián)網(wǎng)收集信息,并根據(jù)以往模板生成工作計劃。同時,通過Copilot還可以線上選擇參與協(xié)同的同事,使其對計劃實時修改,并最終將工作分配給不同的人員。在Excel中,Copilot引入Python,用戶通過自然語言提出需求后,Copilot可以生成分析數(shù)據(jù)的圖表,并提供預(yù)測的代碼。用戶可以隨時對代碼進行提問和編輯,以完善工作內(nèi)容。圖表19:CopilotinPages圖表20:CopilotinExcel資料來源:Microsoft,中信建投資料來源:Microsoft,中信建投在Outlook中,Copilot主要可以用于對工作郵件進行管理,其根據(jù)郵件內(nèi)容和用戶工作背景對郵件重要性進行排序,并提供排序理由和完成建議,從而幫助用戶關(guān)注最重要的任務(wù)。在PowerPoint中,Copilot可以用于幻燈片的生成。當(dāng)用戶用自然語言提出需求后,Copilot首先會生成幻燈片大綱,此時用戶能夠?qū)Υ缶V進行修改,還可以讓Copilot根據(jù)文件內(nèi)容重新生成相應(yīng)章節(jié)的大綱;當(dāng)幻燈片草稿生成完畢后,用戶可以在Copilot中提問,使之在公司圖像庫中搜尋所需圖片,并提供多種排版將圖片融入圖表21:CopilotinOutlook圖表22:CopilotinPowerpoint計算機行業(yè)動態(tài)報告Agentbuilder和SharePoint則創(chuàng)建了一種協(xié)助方式,用戶可以選擇完成工作所需的網(wǎng)站和文件,利用Agentbuilder構(gòu)建一個代理,使之能夠提供所選文件的詳細問答;而通過SharePoint,用戶可以把生成的代理分享給參與工作的所有同事,且同事可以隨時增加代理可訪問的網(wǎng)站和文件,以豐富工作資料。圖表23:建立工作Agent資料來源:Microsoft,中信建投資料來源:Microsoft,中信建投總結(jié):OpenAI發(fā)布推理模型o1系列,并已向用戶推送o1-preview和o1mini。就模型表現(xiàn)而言,o1模型在數(shù)學(xué)、編程、理科專業(yè)知識等方面表現(xiàn)較好,但在某些自然語言任務(wù)相對弱勢。根據(jù)我們測算,OpenAIo1預(yù)訓(xùn)練需要用3.2萬張H100訓(xùn)練90天,較GPT-4提升明顯,一定程度上反應(yīng)訓(xùn)練階段的“Scalinglaw”仍然成立。從o1表現(xiàn)及其引用的相關(guān)文獻中進行分析,傳統(tǒng)的“Pre-TrainingScalinglaw”或?qū)⒅鸩睫D(zhuǎn)向“Post-TrainingScalinglaw”和“ReasoningScalinglaw”,進一步優(yōu)化模型表現(xiàn)。此外,推理過程產(chǎn)生的內(nèi)容或?qū)⒆鳛楦哔|(zhì)量語料進行模型訓(xùn)練,帶來數(shù)據(jù)飛輪效應(yīng)。微軟發(fā)布Copilot更新,賦能Pages、Outlook、Powerpoint等多款軟件,提升企業(yè)用戶效率。投資方向:當(dāng)前計算機行業(yè)成交量、估值等指標(biāo)均位于歷史中樞之下,建議積極看待行業(yè)政策催化和業(yè)務(wù)逐季改善變化,1)受外部環(huán)境和供應(yīng)鏈安全需求影響,國產(chǎn)化的黨政市場下沉與行業(yè)深化有望加速,推薦關(guān)注硬件方面的納思達、海光信息、神州數(shù)碼等,基礎(chǔ)軟件方面的達夢數(shù)據(jù)、中國軟件、麒麟信安、海量數(shù)據(jù)等,應(yīng)用軟件及行業(yè)解決方案方面的金山辦公、頂點軟件、軟通動力等;2)AI作為新型生產(chǎn)力工具,算力確定性更高,流量入口更具應(yīng)用卡位優(yōu)勢,建議關(guān)注金山辦公、虹軟科技、軟通動力、神州數(shù)碼;3)政策催化方向,建議重點關(guān)注財稅改革和電改深化預(yù)期,推薦關(guān)注國能日新等。本期建議:金山辦公、納思達、道通科技、達夢數(shù)據(jù)、中控技術(shù)、博思軟件、神州數(shù)碼、國能日新、海光信息、上期回顧:上期建議組合為——金山辦公、納思達、道通科技、達夢數(shù)據(jù)、中控技術(shù)、博思軟件、神州數(shù)碼、國能日新、海光信息、中國軟件,同權(quán)重下上期組合漲幅為+1.22%,同期計算機(申萬)指數(shù)漲幅為-0.52%,組合超額收益+1.74%。持續(xù)關(guān)注:行業(yè)動態(tài)報告計算機行業(yè)動態(tài)報告AI:科大訊飛、浪潮信息、金山辦公、中科曙光、中科創(chuàng)達等云計算:金山辦公、用友網(wǎng)絡(luò)、金蝶國際(HK)等數(shù)據(jù)要素:太極股份、中遠海科、云賽智聯(lián)等信創(chuàng):納思達、軟通動力、華大九天、卓易信息等行業(yè)IT:創(chuàng)業(yè)慧康、衛(wèi)寧健康、指南針、恒生電子、同花順等產(chǎn)業(yè)互聯(lián)網(wǎng)及工業(yè)軟件:中控技術(shù)、賽意信息、中望軟件等四、產(chǎn)業(yè)要聞加快移動物聯(lián)網(wǎng)發(fā)展,力爭到2027年移動物聯(lián)網(wǎng)終端連接數(shù)突破36億。9月11日消息,工業(yè)和信息化部近日印發(fā)《關(guān)于推進移動物聯(lián)網(wǎng)“萬物智聯(lián)”發(fā)展的通知》,明確一系列舉措提升移動物聯(lián)網(wǎng)行業(yè)供給水平、創(chuàng)新賦能能力和產(chǎn)業(yè)整體價值。力爭到2027年,基于4G和5G高低搭配、泛在智聯(lián)、安全可靠的移動物聯(lián)網(wǎng)綜合生態(tài)體系進一步完善,移動物聯(lián)網(wǎng)終端連接數(shù)突破36億。(資料來源:新華網(wǎng))AI芯片獨角獸壁仞科技遞交上市輔導(dǎo)備案。9月12日消息,AI芯片獨角獸上海壁仞科技股份有限公司在上海證監(jiān)局辦理輔導(dǎo)備案登記,擬首次公開發(fā)行股票并上市,輔導(dǎo)券商為國泰君安。壁仞科技目前已完成多輪融資,公開融資總額超過50億元人民幣,投資方包括啟明創(chuàng)投、IDG資本、華登中國,平安集團、高瓴創(chuàng)投、格力創(chuàng)投、松禾資本、云暉資本、國盛資本、招商局資本等機構(gòu)。(資料來源:TechWeb)消息稱OpenAI正商談以1500億美元估值籌集資金。9月12日消息,彭博社報道稱,OpenAI正在與投(資料來源:IT之家)OpenAIo1預(yù)覽模型發(fā)布:推理能力更強可達理科博士生水準。9月13日消息,今日凌晨,OpenAI正式推出了OpenAIo1預(yù)覽模型。對于復(fù)雜推理任務(wù)而言,新模型代表著人工智能能力的嶄新水平,其特點就是會在回答之前花更多時間進行思考,就像人類思考解決問題的過程一樣。OpenAI曾解釋過,2023年發(fā)布的GPT-4類似于高中生的智能水平,而GPT-5則是完成AI從“高中生躍升至博士”的成長,o1模型就是其中關(guān)鍵的一步。根據(jù)測試,o1模型在國際數(shù)學(xué)奧林匹克的資格考試中,能夠拿到83%的分數(shù),而GPT-4o只能正確解決13%的問題。而在編程能力比賽Codeforces中,o1模型拿到89%百分位的成績,而GPT-4o只有11%。OpenAI表示,根據(jù)測試,在下一個更新的版本中,AI在物理、化學(xué)和生物學(xué)的挑戰(zhàn)性基準測試中,表現(xiàn)能夠與博士生水OpenAICEO阿爾特曼告訴員工:公司明年將重組為營利性公司。9月14日消息,據(jù)外媒報道,OpenAICEO阿爾特曼在最近的一次全公司會議上告訴員工,這家初創(chuàng)公司復(fù)雜的非營利性企業(yè)結(jié)構(gòu)將發(fā)生變化,重組為營利性公司,很可能在明年的某個時候。知情人士稱,阿爾特曼在一次與全體員工的每周例會上談到了即將發(fā)生的變化。他承認,公司結(jié)構(gòu)太過錯綜復(fù)雜,目前已不能滿足OpenAI的發(fā)展需求。公開資料顯示,OpenAI成立2015年,是一家非營利性的研究組織,其目標(biāo)是推動和發(fā)展友好的人工智能,確保人工智能技術(shù)的進步能計算機行業(yè)動態(tài)報告夠惠及全人類。2019年,OpenAI宣布了一項重大轉(zhuǎn)變,成立了一個名為OpenAILP(有限合伙)的營利性子公司,以便能夠獲得外部投資并加速其研究工作。阿爾特曼曾坦承OpenAI的結(jié)構(gòu)“不同尋?!?,他去年曾說這消息稱ChatGPT付費用戶已超過1100萬,每年可帶來27億美元營收。就知情人士透露的消息看,BradLightcap在會上告知員工,ChatGPT目前有超過1000萬名付費訂閱者,另有100萬是價格更高的企業(yè)團隊付費用戶。有外媒在報道中認為,根據(jù)1000多萬付費用戶及100萬企業(yè)付費用戶來計算,ChatGPT每個月就能帶來超過2.25億美元的收入,每年則是超過27億美元。(資料來源:TechWeb)五、重要公告公司時間公告內(nèi)容1、激勵工具:第二類限制性股票,股票來源為公司向激勵對象定向發(fā)行公司A股普通股及/或回購的公司A股普通股股票。2、授予數(shù)量:106.95萬股,占公司股本總額0.88%。其中,首次授予限制性股票98.9537萬股;預(yù)留授予限制性股票8萬股。3、授予價格:第一類激勵對象的限制性股票授予價格為41.44元/股,第二類激勵對象的限制性股票授予價格為51.15元/股。3、授予對象:包括公告本激勵計劃時在本公司(含子公司,下同)任職的董事、高級管理人員、核奇安信奇安信關(guān)于控股股東、實際控制人承諾特定期間不減持公司股份的公告基于對公司未來高質(zhì)量發(fā)展的信心及對公司長期價值的認可,公司控股股東、實際控制人齊向東承諾期內(nèi)如發(fā)生資本公積轉(zhuǎn)增股本、派送股票紅利、配股、增發(fā)等產(chǎn)生的股份,亦遵守上述承諾。截止本公告日,進行上述不減持承諾的股東直接持有的公司股份1.50億股。盛視科技關(guān)于收到呼和浩特新機場口岸通關(guān)設(shè)施設(shè)備建設(shè)項目(一標(biāo)段:海關(guān))中標(biāo)通知書的公告公司收到呼和浩特新機場口岸通關(guān)設(shè)施設(shè)備建設(shè)項目(一標(biāo)段:海關(guān))的中標(biāo)通知書,中標(biāo)價為普聯(lián)軟件關(guān)于控股股東、實際控制人及一致行動人減持股份預(yù)披露公告1、普聯(lián)軟件控股股東、實際控制人之王虎先生及一致行動人之張廷兵、任炳章、李燕冬、石連山、楊華茂、許彥明、馮學(xué)偉、李守強、高峰信、李守林、胡東映、聶玉濤、陳徐亞(共14人)合計持有公司股份5424.61萬股(占公司總股本比例27.04%),計劃自本公告之日起十五司總股本比例1.64%),其中,集中競價減持不超過198萬股,占公司總股本比例0.99%;大宗交易減持不超過131萬股,占公司總股本比例0.65%。維海德2024年員工持股計劃:本次員工持股計劃受讓的股份總數(shù)不超過92.80萬股,占公司目前總股本13513.09萬股的0.69%。為滿足公司可持續(xù)發(fā)展及不斷吸引和留住優(yōu)秀人才的需要,本次員工持股計劃擬設(shè)置20.00萬股作為預(yù)留份額,占本次員工持股計劃標(biāo)的股票總量的21.55%,占公司目前總股本的0.15%。本次員工持股計劃受讓公司回購股份的價格(含預(yù)留份額)為13.17元/股,不低于本次員工持股計劃草案公告前20個交易日公司股票交易均價的50%。計算機行業(yè)動態(tài)報告六、風(fēng)險提示(1)宏觀經(jīng)濟下行風(fēng)險:計算機行業(yè)下游涉及千行百業(yè),宏觀經(jīng)濟下行壓力下,行業(yè)IT支出不及預(yù)期將直接影響計算機行業(yè)需求;(2)應(yīng)收賬款壞賬風(fēng)險:計算機多數(shù)公司業(yè)務(wù)以項目制簽單為主,需要通過驗收后能夠收到回款,下游客戶付款周期拉長可能導(dǎo)致應(yīng)收賬款壞賬增加,并可能進一步導(dǎo)致資產(chǎn)減值損失3)行業(yè)競爭加劇:計算機行業(yè)需求較為確

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論