人工智能行業(yè)Cohere:著力于B端賽道OpenAI+的強(qiáng)勁對(duì)手_第1頁
人工智能行業(yè)Cohere:著力于B端賽道OpenAI+的強(qiáng)勁對(duì)手_第2頁
人工智能行業(yè)Cohere:著力于B端賽道OpenAI+的強(qiáng)勁對(duì)手_第3頁
人工智能行業(yè)Cohere:著力于B端賽道OpenAI+的強(qiáng)勁對(duì)手_第4頁
人工智能行業(yè)Cohere:著力于B端賽道OpenAI+的強(qiáng)勁對(duì)手_第5頁
已閱讀5頁,還剩26頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

分析師:聞學(xué)臣Email:wenxc@聯(lián)系人:王雪晴Email:wangxq03@Cohere:2019年成立的初創(chuàng)公司,提供高性價(jià)比的NLP方案.Cohere成立于2019年,是一家加拿大AI初創(chuàng)企業(yè),因上榜“福布斯AI50強(qiáng)”以及“CNBC2023年顛覆50強(qiáng)”而受.Cohere在為開發(fā)者和企業(yè)提供不需要昂貴的機(jī)器學(xué)習(xí)開發(fā)的NLP解決方案,讓各類開發(fā)人員都可以使用大型神經(jīng)網(wǎng)絡(luò)和最先進(jìn)AI來解決任何語言相關(guān)問題,但卻不依托于任何公共云,讓模型能在私有云或本地部署中運(yùn)行。233.Cohere的聯(lián)合創(chuàng)始人兼CEOAidanGomez是2017年學(xué)術(shù)著作《AttentionisAllYouNeed》的作者之一,該論文在人工智能研究領(lǐng)域具有里程碑意義,推動(dòng)了計(jì)算機(jī)分析和生成文本方式的進(jìn)步,ChatGPT等現(xiàn)代大型語言模型都由其基礎(chǔ)衍生。AidanGomez分別在多倫多大學(xué)(本科)和牛津大學(xué)(博士)學(xué)習(xí),也曾是GoogleBrain的成員之一。.IvanZhang是Cohere的首席科學(xué)家兼首席技術(shù)官。他創(chuàng)立了FOR.ai(現(xiàn)為CohereForAI),是一個(gè)獨(dú)立的AI研究小組,他也是生物技術(shù)和MLOps領(lǐng)域的軟件工程師。.NickFrosst也是Cohere的聯(lián)合創(chuàng)始人,他是多倫多谷歌大腦實(shí)驗(yàn)室的第一位員工,也是谷歌大腦團(tuán)隊(duì)的前成員,主要從事機(jī)器學(xué)習(xí)領(lǐng)域相關(guān)研究。募資情況:背靠NVIDIA、Oracle,當(dāng)之無愧的AI獨(dú)角獸企業(yè).Cohere自創(chuàng)立以來,一共進(jìn)行過四輪融資。其中最早的是2021年9月7日由IndexVentures領(lǐng)投,投資金額4000萬美元,2023年6月,Cohere獲得2.7億美元C輪融資,由InoviaCapital領(lǐng)投,這筆交易對(duì)該公司的估值約為22億美元,使其成為又一家AI超級(jí)獨(dú)角獸企業(yè)。.迄今為止,Cohere共募集了4.35億美元的資金,融資額僅次于OpenAI和Anthropic“吸金”公司。同時(shí)其投資者包括NVIDIA、Oracle、SAP等硅谷巨頭,專業(yè)能力獲得專業(yè)投資機(jī)構(gòu)認(rèn)可。-4000萬美元-4核心技術(shù):創(chuàng)新T-Few方法,僅更新0.32%即可完成30億參數(shù)微調(diào).T-Few微調(diào)提供了一種有效的方法來微調(diào)大型語言模型,解決了訓(xùn)練時(shí)間慢和服務(wù)資源昂貴的挑戰(zhàn)。通過僅更新模型權(quán)重的一小部分并啟用模型堆疊,T-Few微調(diào)可顯著減少訓(xùn)練時(shí)間,同時(shí)保持高質(zhì)量的微調(diào)結(jié)果。.他們引入了MoV和MoLORA這種參數(shù)高效型混合專家適應(yīng)方法。在未曾見過的任務(wù)上,這種新方法只需更新0.32%的參數(shù),就能實(shí)現(xiàn)與完全微調(diào)方法相當(dāng)?shù)男阅?。其表現(xiàn)也能輕松勝過(IA)3或LORA等基礎(chǔ)的參數(shù)高效型技術(shù)。Cohere的研究團(tuán)隊(duì)基于55個(gè)數(shù)據(jù)集,在12個(gè)不同任務(wù)上,用770M到11B的不同大小T5模型進(jìn)行了實(shí)驗(yàn),均得到了一致5核心技術(shù):運(yùn)用RAG方法增強(qiáng)對(duì)話準(zhǔn)確性.要完成更復(fù)雜和知識(shí)密集型的任務(wù),可以基于語言模型構(gòu)建一個(gè)系統(tǒng),訪問外部知識(shí)源來做到。這樣的實(shí)現(xiàn)與事實(shí)更加一性,生成的答案更可靠,還有助于緩解“幻覺”問題。這就是檢索增強(qiáng)生成(RetrievalAugmentedGeneration,RAG)應(yīng)。將用戶的模型與網(wǎng)絡(luò)搜索和重要數(shù)據(jù)源連接起來,以提高聊天響應(yīng)的相關(guān)性和準(zhǔn)確性。Cohere通過訓(xùn)練Command來優(yōu)化RAG的準(zhǔn)確性,包括從多個(gè)數(shù)據(jù)源確定相關(guān)信息。以及通過引用減少幻覺并在生成的響應(yīng)和用戶之間建立信任,以了解響應(yīng)的來源。RAGRAG能夠在對(duì)話中提供reference6核心產(chǎn)品:著力于B端賽道,提供定制生成式AI服務(wù).Cohere主要面向B端企業(yè)客戶,致力于為企業(yè)定制生成式AI服務(wù)。Cohere的垂直應(yīng)用產(chǎn)品集中在企業(yè)運(yùn)營過程中與文本有關(guān)的三個(gè)關(guān)鍵領(lǐng)域,分別是文本生成、文本分類和文本檢索。.文本生成領(lǐng)域有Summarize、Generate、CommandModel;文本檢索領(lǐng)域有EmbedModel、SemanticSearch和Rerank;文本分類領(lǐng)域的主要產(chǎn)品是Classify。用戶將自己的數(shù)據(jù)與Command結(jié)合并經(jīng)過訓(xùn)練后,能夠遵循用將文本映射到向量空間,并能夠定位類似含義的提供強(qiáng)大的語義搜索功能,能夠根據(jù)含義查找文本、文基于語義相關(guān)性分析現(xiàn)有工具的搜索結(jié)果并進(jìn)行排名,為搜分類組織信息,使用戶能夠個(gè)性化地組織信息來幫助內(nèi)容審核、7Cohere對(duì)Command模型系列進(jìn)行優(yōu)化,提供更優(yōu)性能的Command-lightly模型8產(chǎn)品定價(jià):價(jià)格精細(xì)化,總體遠(yuǎn)低于OpenAI.Cohere在產(chǎn)品定價(jià)方面按照不同的模型分別制定了不同的價(jià)格,同時(shí)定制化模型會(huì)收取更高的價(jià)格,方便用戶根據(jù)其實(shí)際情況選擇符合具體需求的產(chǎn)品。.Cohere系列模型價(jià)格整體低于OpenAI的微調(diào)系列模型。Cohere產(chǎn)品的價(jià)格遠(yuǎn)遠(yuǎn)低于OpenAI產(chǎn)品的最低價(jià),且定制化價(jià)格多為基礎(chǔ)價(jià)格的2倍。與其相比,OpenAI產(chǎn)品的使用價(jià)格均是其訓(xùn)練價(jià)格的4倍。-9.2023年5月以來,網(wǎng)站月訪問量呈穩(wěn)定趨勢,在8月回升之后又有所下降??傮w看,網(wǎng)站訪問量能夠維持在百萬級(jí)別。其中美國、印度、加拿大等國家所占流量份額較高。外鏈訪問來源中,ProgrammingandDeveloperSoftware及ComputersElectronicsandTechnology領(lǐng)域占比較高。.從訪問用戶年齡來看,25-34歲年齡段用戶占比最高。02023年9月2023年5月2023年6月2023年7月2023年8月43.72%.Cohere在業(yè)界擁有Salesforce、NVIDIA、Oracle、SAP等投資者和Oracle、MCKinsey、AWS、GoogleCloud等合作伙伴。如通過與Oracle的合作,用戶可以使用由經(jīng)過專門訓(xùn)練的Cohere基礎(chǔ)模型,使用基于Oracle云基礎(chǔ)設(shè)施(OCI)構(gòu)建的原生生成式AI服務(wù)。.向量數(shù)據(jù)庫領(lǐng)域,Cohere擁有Weaviate、Pinecone和drant等合作伙伴。Weaviate的text2vec-cohere模塊允許用戶直接在Weaviate矢量搜索引擎中使用Cohere嵌入作為矢量化模塊;Pinecone支持使用Cohere生成語言嵌入,然后將其存儲(chǔ)在Pinecone中并用于語義搜索;Drant與Cohere結(jié)合使用,可以提出針對(duì)特定文本分析用例的全面解決方案。秉持安全、定制和客戶支持的核心觀念,強(qiáng)調(diào)隱私保護(hù)和數(shù)據(jù)安全.Cohere專門為企業(yè)用戶提供數(shù)據(jù)防火墻,解決企業(yè)數(shù)據(jù)在輸入大模型中的隱私和安全問題。Cohere強(qiáng)調(diào)會(huì)保證客戶的數(shù)據(jù)安全,在多個(gè)合作伙伴的加持下,能夠提供具有數(shù)據(jù)安全性,并根據(jù)不同企業(yè)的需求和數(shù)據(jù)制作的高性能定制.從模型角度看,Cohere將繼續(xù)擴(kuò)充優(yōu)化模型規(guī)模,訓(xùn)練更加強(qiáng)大的基礎(chǔ)模型,提升用戶體驗(yàn)。Gomez在采訪中提到公司每周都會(huì)發(fā)布一個(gè)新的模型版本,并不斷對(duì)模型進(jìn)行基準(zhǔn)測試和評(píng)估以降低用戶使用風(fēng)險(xiǎn),相信未來Cohere將繼續(xù)提升大模型的AI能力,打造更高性能、更高安全性的大模型。.從產(chǎn)品功能角度,除了繼續(xù)提升模型性能之外,Cohere在未來會(huì)持續(xù)在數(shù)據(jù)保護(hù)和客戶支持方面加大投入力度。對(duì)于很多企業(yè)來說,數(shù)據(jù)安全是首要考慮的問題,而大模型迭代訓(xùn)練需要龐大的數(shù)據(jù),如果能夠解決數(shù)據(jù)隱私和安全的問題將會(huì)是一次巨大的飛躍;客戶服務(wù)方面,Cohere可以在更多領(lǐng)域提供定制化的AI服務(wù),以打通市場,提高同行競爭優(yōu).從產(chǎn)品定位角度看,Cohere專注于打造toB服務(wù)型的產(chǎn)品,與業(yè)內(nèi)云、數(shù)據(jù)庫等服務(wù)型廠商進(jìn)行合作,能夠保障自身的獨(dú)特競爭力。Cohere與業(yè)界企業(yè)達(dá)成廣泛合作,主攻服務(wù)企業(yè)客戶群的商業(yè)應(yīng)用,直接與開發(fā)人員和企業(yè)合作,能夠針對(duì)B端企業(yè)的需求提出解決方案,與OpenAI等基礎(chǔ)模型廠商形成了一定的差異化,從而進(jìn)一步擴(kuò)張市場。.AI技術(shù)落地不及預(yù)期:AI技術(shù)更新迅速,如果公司無法跟上技術(shù)應(yīng)用的步伐,可能會(huì)被競爭對(duì)手超越。同時(shí)AI技術(shù)的使用會(huì)改變用戶的工作方式,如果用戶不愿意接受這些改變,可能會(huì)影響公司的潛在業(yè)務(wù)增長速度。即使AI技術(shù)在實(shí)驗(yàn)室環(huán)境中表現(xiàn)優(yōu)秀,但在實(shí)際應(yīng)用中可能遇到許多未預(yù)見的問題和挑戰(zhàn)。技術(shù)落地的過程中可能出現(xiàn)技術(shù)難題、系統(tǒng)穩(wěn)定性、性能等問題。.產(chǎn)品市場競爭加?。弘S著競爭的加劇,公司需要不斷創(chuàng)新以保持競爭優(yōu)勢。這可能需要大量的研發(fā)投入和時(shí)間,同時(shí)還需要承擔(dān)創(chuàng)新失敗的風(fēng)險(xiǎn)。同行

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論