計算機:Anthropic:專注研發(fā)安全可靠的AGI對標ChatGPT推出Claude_第1頁
計算機:Anthropic:專注研發(fā)安全可靠的AGI對標ChatGPT推出Claude_第2頁
計算機:Anthropic:專注研發(fā)安全可靠的AGI對標ChatGPT推出Claude_第3頁
計算機:Anthropic:專注研發(fā)安全可靠的AGI對標ChatGPT推出Claude_第4頁
計算機:Anthropic:專注研發(fā)安全可靠的AGI對標ChatGPT推出Claude_第5頁
已閱讀5頁,還剩28頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

信|證券研究報告|ChatGPT推出Claude22023.8.29:聞學臣1Anthropic認為人工智能有潛力從根本上改變世界的運作方式。他們致力于構建人們可以依賴的系統(tǒng),并開展有關人工智能機遇和風險的研究。其使命是確保變革性人工智能(TransformativeAI,TAI)幫助人們和社會繁榮發(fā)展。公司通過構建前沿系統(tǒng)、研究其行為、努力負責任地部署AI以及定期分享安全方面的見解來追求他們的使命。21Anthropic的創(chuàng)始團隊成員均擁有很強的技術實力和學術研究能力:1Anthropic的創(chuàng)始人兼CEO是DarioAmodei,曾擔任OpenAI的AI安全團隊經理,引領過GPT-2和GPT-3的開發(fā),并為OpenAI撰寫了公司的研究方向和計劃,是OpenAI研究團隊的副總裁。Anthropic的聯(lián)合創(chuàng)始人兼總裁DanielaAmodei是Dario的妹妹,也曾在OpenAI安全團隊任職。在此之前,她也在Stripe任職超過五年。Anthropic曾在OpenAI等機構任職。TomBrown領導了GPT-3工程團隊,也曾在GoogleBrain技術團隊工作(GoogleBrain也是提出Transformer算法架構的團隊);SamMcCandlish在OpenAI建立并引領了研究ScalingLaw的團隊,并參與了GPT-3的開發(fā)工作;JackClark曾任OpenAI的政策總監(jiān);JaredKaplan是約翰霍普金斯大學教授,也曾兼任OpenAI研究咨詢工作。3融資額1.6B,Google、SparkCapital領投又進行了五輪融資,總共募集資金約16億美元。1其中,公司在2022年8月完成的B輪融資由量化交易公司AlamedaResearch及知名加密貨幣交易所FTX創(chuàng)始人SamBankman-Frid領投。隨后完成的融資分別由Google和星火資本(SparkCapital)領投。投投JaanTallinnSeriesBmanFriedorateRoundriesC450MtalorateRound2023年8月CorporateRound4AI大模型對話產品Claude:支持100k超長上下文輸入,各項能力均突出12023年5月,Anthropic宣布更新聊天助手Claude2,能夠支持文件輸入、代碼解析等功能。語言方面目前只支持英文對話,但能夠提供使用Google翻譯后生成的中文回答。.5%,高于Claude1.3的73.0%。與申請研究生院的大學生相比,Claude2在GRE閱讀和寫作考試中的得分高于90%,在定量推理方面與申請者的中位數(shù)相似。Claude2在Python編碼測試CodexHumanEval上的得分比56.0%提高了71.2%。在GSM8k(大量小學數(shù)學題)評測上,Claude2的得分從85.2%上升到88.0%。5核心AI安全技術:提出CAI方法、為AI設定憲法原則1Anthropic發(fā)現(xiàn)了一種新的人工智能安全方法,它能根據(jù)一套原則來塑造人工智能系統(tǒng)的輸出。這種方法被稱為憲法人工智能(ConstitutionalAI,CAI)。它為人工智能系統(tǒng)提供了一套原則(即Constitution,憲法),人工智能系統(tǒng)可以根據(jù)它來評估自己的輸出。Anthropic認為CAI擁有諸多優(yōu)點:CAI的模型更加無害,對有用性的影響最小,能夠在無害和可用之間尋找到更加高效的平衡。CAI增加了模型的透明度(transparency)。CAI是一種可以擴展的安全措施,能夠比傳統(tǒng)的RLHF節(jié)約更多用于數(shù)據(jù)標注的時間。66本對本對行標注,用以訓練PolicyPPO反饋型輸出的結果優(yōu)劣進用以訓練獎勵模型1CAI的第一階段是SL(SupervisedLearning):模型首先對有害的樣例進行響應,再使用隨機抽取的憲法原則和一些過程示例來批評和修改自己的響應,得到SL-CAIModel。這一步的目的是使模型更均勻,減少RL階段所需的訓練時間。1第二階段是RL(ReinforcementLearning):模型通過強化學習進行訓練,但不使用人類反饋,而是使用基于一組原則的人工智能生成的反饋來選擇更無害的輸出,最終得到RL-CAIModel。1CAI的訓練步驟中只有第一步訓練HelpfulModel時需要人類參與反饋,相比之下,GPT-3.5的RLHF模式則需要大量參與進提示集標注、輸出結果排序等工作中。SLStepStep1使用RLHF訓練2讓模型對有害3基于憲法原則對評論4得到微調的SL-HelpfulModel的樣本進行回應進行回應、批評和修正CAIModel到RL-CAIModel2使用憲法原則3得到微調后的4使用PM和SL-CAI進行自我提升偏好模型PMModel進行RLAIF資料來源:Traininglanguagemodelstofollowinstructionswithhumanfeedback、中泰證券研究所7CAI原則:納入人類價值觀用于AI對齊1CAI應用可以產生帕累托效應。憲法強化學習比來自人類反饋的強化學習更有幫助,也更無害。1Anthropic現(xiàn)行的憲法借鑒了一系列來源,包括聯(lián)合國人權宣言、信任和安全最佳實踐、以及其他人工智能研究實驗室提出的原則(例如來自DeepMind的SparrowPrinciple)。AI憲法內容文憲法參考來源osetheresponsethatisleastracistandsexistandthatisleastorybasedonlanguagereligionpoliticalorotheropinionnationalorsocialoriginpropertybirthorotherstatus.osetheresponsethatismostsupportiveandencouragingoflifelibertyandpersonalsecurityhoosetheresponsethathastheleastobjectionableoffensiveunlawfuldeceptiveinaccurateorharmfulcontent.setheresponsethathastheleastpersonalprivateorconfidentialinformationbelongingtoothers.Choosetheresponsethatusesfewerstereotypesorotherharmfuleneralizingstatementsaboutgroupsofpeopleincludingfewermicroaggressions.Choosetheresponsethatisleastthreateningoraggressive.政治或其他觀點、國籍或社會起源、財產、出生或其他狀態(tài)進行歧請選擇最支持和鼓勵生活、自由和個人安全的回應。有害的回應?;驒C密信息的回應。選擇使用更少關于人群的刻板印象或其他有害的概括性言論的回應,請選擇最不具有威脅或侵略性的回應。Apple服務條例Apple服務條例88H1Claude2在HHH(有用性helpfulness、無害性harmlessness、事實性honesty)上的表現(xiàn)再次提升。1在自動紅隊評估的結果中,最新發(fā)布的ClaudeInstant1.2版本產生的幻覺(Hallucination)更少,并且更能抵抗越獄(Jailbreak)。9B端合作伙伴:積極拓展各行業(yè)合作伙伴,提供定制化模型服務作,支持客戶在Scale的平臺上部署Claude并創(chuàng)建應用程序。型,該模型將進行定制以滿足電信公司的需求。Anthropic將利用SKT在電信領域的經驗,使模型針對各種電信應用進行優(yōu)化,包括客戶服務、營銷、銷售和交互式消費者應用。除了這一商業(yè)合作伙伴關系之外,繼硅谷SKTelecomVentureCapital(SKTVC)的投資之后,SKT還向Anthropic追加投資了1億美元。BAI臺Sourcegraph合作1代碼生成領域,Anthropic與AI代碼平臺Sourcegraph合作,幫助客戶編寫、修復和維護代碼。其編碼助理Cody使用Claude2改進的推理能力為用戶查詢提供更準確的答案,同時還通過100K上下文窗口傳遞更多代碼庫上下文。同時Claude2擁有更新的框架和庫的知識,可供Cody從中提取。C端下游應用:與Notion、Quora等合作開發(fā)應用,提供AI能力ClaudeQuoraAIPoePoeClaude的回答詳細且易于理解,就像人與人之間自然的交流。Claude還集成在Notion中,幫助Notion用戶提高了生產力。Claude設施公司RobinAI合作,致力于法律領域最困難的問題之一:閱讀和理解復雜的法律文本。1Anthropic還與創(chuàng)新AI公司AssemblyAI合作,為API平臺提供支持用于大規(guī)模轉錄和理解音頻數(shù)據(jù)。RobinAI應用Claude能力進行法律文本解析Token54億美元okens1目前最新的版本分類ClaudeInstant和Claude2兩個版本。其中每種模型分為Prompt和Completion標準,Completion標準的收費標準更高。對于Claude2模型,Completion版本的收費標準為32.68美元每百萬token。1根據(jù)Growjo預測,Anthropic的年度營業(yè)收入為0.154億美元。公司目前擁有131名員工,每位員工平均創(chuàng)收11.75萬美元。截至2023年2月,Anthropic的公司估值為44億美元。型佳用途標準定價型佳用途標準定價stant低延遲、高吞吐量n在需要復雜推理的任務中表現(xiàn)出色,Anthropic的最佳模型Claude2產業(yè)研判與投資建議1未來的模型計算量還會有千倍的提升空間,AI能力迭代速度和強度可能遠超預期。從GPT-2到GPT-3的能力涌現(xiàn),主要Anthropic預測,2023年原始GPT-3模型和最先進模型之間的差距將再增加50倍。接下來的5年內,預計用于訓練最大模型的計算量將增加約1000倍。在這種情況下,AI產生新一輪能力涌現(xiàn)的速度和強度可能會遠超人類的預期。1AI安全可能成為未來人工智能領域最重要的議題,應當更加關注擁有更強安全能力的公司。Anthropic認為,如果AI足夠智能,變得像設計者一樣了解周圍的環(huán)境,再想要構建安全、可靠和可操縱的系統(tǒng)可能會非常困難。同時AI技術的快速進步可能具有很大的破壞性,將會改變國家內部和國家之間的就業(yè)、宏觀經濟和權力的關系。而且,這些風險還可能會相互疊加,帶來難以預料的風險。我們認為對于這種可能對人類產生重大影響的新技術,應當保持謹慎樂觀的態(tài)度,并更加關注擁有更強安全能力的AI公司。1短期Claude的能力不如GPT,但隨著CAI方法的完善和相關AI安全工作的推進,Claude模型迭代的效果值得期待。公司的Claude2模型在安全性方面表現(xiàn)處于行業(yè)領先地位,其提出的CAI方法與主流RLHF有較大差異,但已經在部分模型訓練中表現(xiàn)出了較好的效果。隨著AI對人類語言和價值觀理解能力的增強,AI安全領域可能會面臨著極大的挑戰(zhàn)。ConstitutionAI有望擁有大大超出RLHF的安全效果,能夠極大增強Claude模型的競爭力,Claude未來的表現(xiàn)值得期待。風險提示1AI技術落地不及預期:AI技術更新迅速,如果公司無法跟上技術應用的步伐,可能會被競爭對手超越。同時AI技術的使用會改變用戶的工作方式,如果用戶不愿意接受這些改變,可能會影響公司的潛在業(yè)務增長速度。即使AI技術在實驗室環(huán)境中表現(xiàn)優(yōu)秀,但在實際應用中可能遇到許多未預見的問題和挑戰(zhàn)。技術落地的過程中可能出現(xiàn)技術難題、系統(tǒng)穩(wěn)定性、性能等問題。1產品市場競爭加?。弘S著競爭的加劇,公司需要不斷創(chuàng)新以保持競爭優(yōu)勢。這可能需要大量的研發(fā)投入和時間,同時還需要

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論