2023大模型治理藍(lán)皮報告_第1頁
2023大模型治理藍(lán)皮報告_第2頁
2023大模型治理藍(lán)皮報告_第3頁
2023大模型治理藍(lán)皮報告_第4頁
2023大模型治理藍(lán)皮報告_第5頁
已閱讀5頁,還剩70頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

大模型治理藍(lán)皮報告(2023)目錄一、大模型治理的重要性緊迫性凸顯 1(一)大模型技術(shù)浪潮興起 1(二)大模型引領(lǐng)數(shù)字化變革 3(三)大模型帶來的典型風(fēng)險 5二、技術(shù)變革下大模型治理框架日漸明朗 11(一)治理模式:敏捷治理成為國際較為通行的治理方案 11(二)治理主體:激勵多元主體協(xié)同治理成為全球共識 14(三)治理機制:軟硬兼施推進(jìn)大模型治理 18三、聚焦大模型治理核心議題規(guī)則 22(一)數(shù)據(jù)治理規(guī)則 23(二)知識產(chǎn)權(quán)保護(hù) 32(三)倫理問題治理 36(四)信息內(nèi)容治理 40四、把握全球大模型治理最新動態(tài)趨勢 42(一)美國從松散碎片式治理逐步趨向體系化治理 42(二)歐盟繼續(xù)發(fā)揮人工智能治理領(lǐng)域布魯塞爾效應(yīng) 45(三)英國力圖以促進(jìn)創(chuàng)新的監(jiān)管方法引領(lǐng)全球治理 49(四)國際組織在大模型治理國際合作中各顯其能 52五、探索我國大模型治理的主要落地工具 55(一)事前備案 55(二)事中全流程評估 57(三)事后溯源檢測 60六、完善我國大模型治理體系的思路建議 63(一)確立促進(jìn)創(chuàng)新的人工智能敏捷治理理念 64(二)聚焦人工智能場景應(yīng)用細(xì)化制度方案 64(三)立足當(dāng)前治理實踐創(chuàng)新人工智能治理工具 65(四)激勵企業(yè)積極管控風(fēng)險以推動平臺合規(guī) 66(五)促進(jìn)全球人工智能合作治理體系構(gòu)建 67大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023)PAGEPAGE10一、大模型治理的重要性緊迫性凸顯(一)大模型技術(shù)浪潮興起競爭格局的重要力量。一批里程碑意義的前沿成果陸續(xù)突破,以ChatGPT對大模型的基本認(rèn)識大模型(LLM,LargeLanguageModel)指的是具有超大參數(shù)規(guī)模,建立在多頭自注意力機制Transformer架構(gòu)之上,以深度神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),用海量文本數(shù)據(jù)預(yù)訓(xùn)練而成的語言模型。以ChatGPT為代表的大模型能夠模擬人類的創(chuàng)造性思維,生成具有一定邏輯性和連貫性的語言文本、圖像、音頻等內(nèi)容。大模型基于大數(shù)據(jù)、大算力、多模態(tài)的技術(shù)優(yōu)勢,實現(xiàn)從感知世界、理解世界向創(chuàng)造世界的躍遷,推動人類社會加速邁向人機共生的智能社會階段。大模型體現(xiàn)出三方面技術(shù)趨勢:一是從決策式AI到生成式AI。決策式AI主要是通過分類回歸對數(shù)據(jù)進(jìn)行分析,主要應(yīng)用于圖像識AI借助Transformer架構(gòu)/視頻//視頻與文本2600大模型的變革影響三和引導(dǎo)。Web2.0之父蒂姆·奧萊利(TimO'Reilly)(二)大模型引領(lǐng)數(shù)字化變革工智能每年或?qū)槿騁DP2.6-4.4MarketsandMarkets報告,2023110.3202851835.6%。大模型推動產(chǎn)業(yè)跨域深度融合3DAI陪護(hù)與交AIAI風(fēng)險管理。據(jù)埃森哲預(yù)計,203544.4%。大模型提升公共服務(wù)水平13ChatGPTChatGPT信息通信業(yè)(32.8%)和制造業(yè)(19.2%)。從市場份額來看,根據(jù)(PrudourPvt.Ltd)2022120325億美元,年復(fù)45.8%(三)大模型帶來的典型風(fēng)險大模型自身技術(shù)缺陷帶來的風(fēng)險挑戰(zhàn)通常指模型按照流暢正確的語法規(guī)則產(chǎn)生的包含虛假信息甚至無意OpenAIMurati亦指出,ChatGPT和底層大型語言模型的最大挑戰(zhàn)是其IP由于一方例ChatGPT大模型在個人維度引發(fā)的風(fēng)險挑戰(zhàn)1另一方面,大模型訓(xùn)練數(shù)據(jù)存在的固有偏見和歧視問1參見/s/FIX1cUkw6PiduOwJ00l0mAGPT-3顯示出了基于宗教信仰的偏見和性別歧視,大語言模型Gopher存在職業(yè)與性別之間的刻板印象聯(lián)想,圖像生成模型Dalle-2JonathanTurleyChatGPT寫論文、寫判決書的案例屢見不鮮,且個人對大模型企業(yè)推出的“AI伴侶”為例,該類應(yīng)用可能導(dǎo)致個人不愿花時間精大模型在企業(yè)維度引發(fā)的風(fēng)險挑戰(zhàn)大模型的用戶使用條款普遍給予企業(yè)超出必要限度的個人信息使用OpenAIOpenAIChatGPT的目的。在企業(yè)商業(yè)二是內(nèi)容生成依托海量文本與圖像數(shù)據(jù),引發(fā)版權(quán)侵權(quán)風(fēng)險。一方面,大模型生成內(nèi)容由于缺乏規(guī)范的許可使用機制具有侵權(quán)風(fēng)險。由于大模型根據(jù)概率推理的生成機制,其使用作品難以逐個、準(zhǔn)確地20231(Getty起訴熱門人工智能繪畫工具StableDiffusion的開發(fā)者StabilityT5和META的LLaMAC427個被美國政府認(rèn)定為盜版和假冒產(chǎn)品市場的網(wǎng)站。另一方。而含有侵權(quán)內(nèi)容的大模型生成內(nèi)容的使用者亦有可能需要承擔(dān)侵權(quán)責(zé)任。2大模型生成工具的運作機制導(dǎo)致企業(yè)緯度的違規(guī)數(shù)據(jù)傳輸與敏感信息泄露頻發(fā)ChatGPT為例,根據(jù)其運作原理,用戶在輸入端提出的問題首先會傳輸?shù)轿挥诿绹腛penAIChatGPTChatGPT20Cyberhaven160ChatGPT2參見/s/LbeMIgeJeZSAqDWeLTBX9g大模型在社會維度引發(fā)的風(fēng)險挑戰(zhàn)44%GPT-41.86300萬美元,非百億美金公司很難持續(xù)跟進(jìn)。從組織背景不足等原因,無法有效且正確地使用GPT技術(shù)。這會使得ChatGPT大模。當(dāng)前,通過AI45/二、技術(shù)變革下大模型治理框架日漸明朗(一案2018年,世界經(jīng)濟論壇提出敏捷治理概念,討論如何應(yīng)對第四敏3/s/yAEBHtf-SEPgC65vmtdMEQ一另敏4管模式面臨著AI自主演化控制難、迭代快速跟進(jìn)難、黑箱遮蔽追責(zé)4參見薛瀾,《走向敏捷治理:新興產(chǎn)業(yè)發(fā)展與監(jiān)管模式探究》,《中國行政管理》2019年第8期。20235月,20233月,英國發(fā)布《促進(jìn)創(chuàng)新的人工智能監(jiān)管方式》56b驗證。我國采取包容審慎、分類分級監(jiān)管的敏捷治理模式。兩辦印發(fā)(二)治理主體:激勵多元主體協(xié)同治理成為全球共識國際組織是全球人工智能治理的重要力量2020年起國際組織已經(jīng)超過國家成為主要的人工智能舉措的來源;從2015年到2023年,國家政府層面共發(fā)布了172項舉措,5246見來源:歐洲委員會圖12010-2023年間政府和國際組織發(fā)布的人工智能舉措數(shù)量對比國家政府加緊完善人工智能監(jiān)管架構(gòu)5(OECD)和聯(lián)合國教科文組織(UNESCO)、G7、G20等。6參見CouncilofEurope,AIInitiatives,https:///en/web/artificial-intelligence/national-initiatives,visitedon29August,2023大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023)PAGE16PAGE16探((率先成立歐洲首個人工智能監(jiān)管機構(gòu)——西使用以及確保AI務(wù)部宣布,國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)8韓國7參見歐盟《人工智能法案》第六編第一章要求8NISTNISTAI風(fēng)險管理框架內(nèi)開展研發(fā)等短期目標(biāo),大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023)PAGEPAGE17企業(yè)站在人工智能治理的最前線最前沿企業(yè)在推動人工智能治理規(guī)則和標(biāo)準(zhǔn)落地上發(fā)揮著決定性作用,是踐行治理規(guī)則和行業(yè)標(biāo)準(zhǔn)的中堅力量。當(dāng)下人工智能領(lǐng)域內(nèi)產(chǎn)業(yè)界呈現(xiàn)出領(lǐng)先于學(xué)術(shù)界的發(fā)展態(tài)勢。2022年,由產(chǎn)業(yè)界開發(fā)的機器學(xué)習(xí)模型數(shù)量高達(dá)32個,而學(xué)術(shù)界則只研發(fā)了3個。(見圖2)一是建立人工智能行業(yè)治理共同體。微軟、谷歌、OpenAI等成9韓國汽車、造40010AIAIIBM為踐行人工智能倫理治理成立了AI9參見/2023/07/26/google-openai-microsoft-anthropic-join-forces-promote-safe-ai-development/10參見/view.php?ud=20230725000584以支持公司執(zhí)行人工智能倫理原則。商湯科技則成立AI倫理與治理20235月,微軟發(fā)布《人工智能治理:AI治理工2023RSA大會上,谷歌推出大模型網(wǎng)絡(luò)安全套件云安全AIWorkbench來源:斯坦福HAI圖22002-2022重要機器學(xué)習(xí)系統(tǒng)數(shù)量(按行業(yè)劃分)(三)治理機制:軟硬兼施推進(jìn)大模型治理法規(guī)等維度發(fā)布具體的人工智能規(guī)則規(guī)范。根據(jù)世界經(jīng)合組織(OECD)人工智能政策觀察站最新統(tǒng)計,已有69個國家和地區(qū)發(fā)布800多項人工智能政策。11以軟法為引領(lǐng)的社會規(guī)范體系A(chǔ)I倫理原則會(IEEE)《人工智能設(shè)計倫理準(zhǔn)則》、歐盟《可信人工智能倫理伴隨大模型的應(yīng)用,軟法治理體現(xiàn)出以下趨勢特點:一是受地域文化、發(fā)展水平等因素影響,各國倫理治理重點存在分歧。西11https://oecd.ai/en/dashboards/overview大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023)PAGE20PAGE20IEEE以硬法為底線的風(fēng)險防控體系12參見/s/xCfDeoWepskSVierIrUA4w大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023)PAGEPAGE2120162022年間全球AI366.5倍(34)。美·20234(方ChainModel),根據(jù)不同行業(yè)場景提出不同風(fēng)險分級。德國電力電子與信息技術(shù)協(xié)會提出VCIONIST《人工智能風(fēng)險管理框架》等。來源13:中國信息通信研究院根據(jù)斯坦福HAI報告數(shù)據(jù)整理圖32016-22年81個選定國家立法程序中提及人工智能的次數(shù)來源:中國信息通信研究院根據(jù)斯坦福HAI報告數(shù)據(jù)整理圖42016-22年127個選定國家人工智能相關(guān)立法數(shù)量三、聚焦大模型治理核心議題規(guī)則13數(shù)據(jù)來源:斯坦福HAI《2023人工智能指數(shù)報告》(一)數(shù)據(jù)治理規(guī)則構(gòu)建高質(zhì)量數(shù)據(jù)集T-149MB40GBReddit45TB1-10-100110美元,可能導(dǎo)致的業(yè)務(wù)成本增100數(shù)據(jù)流通共享是建立高質(zhì)量數(shù)據(jù)集的前提。高質(zhì)量數(shù)據(jù)集需要經(jīng)歷數(shù)據(jù)資源化、數(shù)據(jù)共享、交易流通與分析應(yīng)用等數(shù)據(jù)價值化過程;143OSTP正式發(fā)布《國家戰(zhàn)略:推進(jìn)隱私保護(hù)的15163月,美國積極推動與歐盟達(dá)成“歐盟-美國數(shù)據(jù)隱私框架(DPA)”,該20237月被歐盟委員會批準(zhǔn)通過,使美國公司可以在新的14參見/s/S8VmeOHh7CB1yIOjapwyqw.15/s/_B8mE5swyAxDR2Lh1cVnFQ.16參見https:///articles/crs-congress-should-consider-data-privacy-in-generative-ai-regulation/.1743.3億元。18數(shù)據(jù)標(biāo)注在17參見陳蕾、薛欽源:《著力構(gòu)建高質(zhì)量數(shù)據(jù)要素市場》,載《中國社會科學(xué)報》2023年第3期。18/s/JGc-iPFDESgTz9riM7MTug.大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023)PAGE26PAGE26(標(biāo)注MIT科技評論將AI2022101.27%2026NLP數(shù)據(jù)將會不足以支持訓(xùn)練。19第二,合成數(shù)據(jù)在生產(chǎn)效率提升、獲取成本降低、數(shù)據(jù)質(zhì)量提升、隱私/安全問題規(guī)避等方面具有顯著優(yōu)勢。1%19PabloVillalobosJaimeSevilla,LennartHeimTamayBesiroglu,MariusHobbhahn,AnsonHo.Willwerunoutofdata?AnanalysisofthelimitsofscalingdatasetsinMachineLearning.arXive-prints.大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023)PAGEPAGE27征導(dǎo)致的無法針對邊緣案例進(jìn)行大模型訓(xùn)練的問題,在AI訓(xùn)練中發(fā)揮較真實數(shù)據(jù)同樣甚至更好的效果。20等數(shù)據(jù)開放度低、壟斷性強的領(lǐng)域具有重要意義。21系統(tǒng)TADSimOpenAI、Cohere等公司,紛紛轉(zhuǎn)向使用合成數(shù)據(jù)作為解決方案,以降低數(shù)據(jù)成本,推動AIGartner2024年用于訓(xùn)練AI60%2030數(shù)據(jù)隱私保護(hù)各國探索在現(xiàn)有的個人信息保護(hù)框架下應(yīng)對大模型帶來的隱私45條要求,在人工智能系統(tǒng)全生命周20/2022/synthetic-data-ai-improvements-1103.21AIGC202225-31CNIL(CNIL)ChatGPT等大模型技術(shù),4月,英國信息專員辦公室(ICO)發(fā)布開發(fā)或使AIGCICO重點關(guān)注的八大領(lǐng)域,包括處理232422參見《人工智能:國家信息與自由委員會(CNIL)的行動計劃》,https://il.fr/en/artificial-intelligence-action-plan-cnil23參見《關(guān)于在人工智能推薦與決策系統(tǒng)中使用個人數(shù)據(jù)的建議指南草案》,https://.sg/-/media/Files/PDPC/PDF-Files/Legislation-and-Guidelines/Public-Consult-on-Proposed-AG-on-Use-of-PD-in-AI-Recommendation-and-Systems-2023-07-18-Draft-Advisory-Guidelines.pdf24參見《挪威DPA關(guān)于在Ruter參與AI監(jiān)管沙盒的最終報告》,https://www.datatilsynet.no/en/regulations-and-tools/sandbox-for-artificial-intelligence/reports/ruter-exit-report-on-track-with-artificial-intelligence/going-forward/.當(dāng)超25OECD226(opt-in)(TheDeleteAct)27澳1125參見《文心一言個人信息保護(hù)規(guī)則》,/talk/protectionrule/android.26參見《推進(jìn)人工智能的可問責(zé)原則》,https:///docserver/2448f04b-en.pdf?expires=1699552106&id=id&accname=guest&checksum=F7E1FC3A212BF83F1BF2AB818C22EE3F.27參見Trahan,Edwards,Cassidy,OssoffReintroduceBicameralBilltoReininDataBrokers,/news/documentsingle.aspx?DocumentID=2934.司和個人網(wǎng)站如何保護(hù)個人信息免受非法抓取,以滿足監(jiān)管需求。28開源數(shù)據(jù)集的使用應(yīng)當(dāng)遵守開源協(xié)議或者取得相應(yīng)授權(quán)文件。2023年10月,全國信安標(biāo)委發(fā)布《生成式人工智能服務(wù)安全基本要求》(51行、高盛集團和富國銀行等多家金融機構(gòu)在不同程度上限制類似ChatGPT等大模型產(chǎn)品的應(yīng)用。富國銀行的發(fā)言人表示,其在評估ChatGPT292023320日,OpenAI1.2%ChatGPT付挑戰(zhàn),金融機構(gòu)對于大模型在其業(yè)務(wù)中的應(yīng)用顯得更為謹(jǐn)慎。20221028參見《關(guān)于數(shù)據(jù)抓取和隱私保護(hù)的聯(lián)合聲明》,https://.au/newsroom/global-expectations-of-social-media-platforms-and-other-sites-to-safeguard-against-unlawful-data-scraping.29參見https:///news/articles/2023-11-16/apple-plans-to-adopt-rcs-texting-standard-in-truce-with-android.7月,美國聯(lián)邦貿(mào)易委員會(FTC)OpenAI啟動新的民事調(diào)(CivilInvestigative主要49個問題,其中特別包括了原始訓(xùn)練數(shù)據(jù)和數(shù)據(jù)隱私保護(hù)政策,要求OpenAIAI開發(fā)和部署人員必須遵守與系統(tǒng)透明度相關(guān)的責(zé)任要求,包括披露AI302期的不同階段采取不同技術(shù)相關(guān)和流程相關(guān)的方法來增加人工智能的透明度和可問責(zé)性。3120233月發(fā)布的《人工智能32大多數(shù)領(lǐng)先的聊天機器人和其他人工智能模型并不提供讓用戶刪除30參見《人工智能兩黨立法框架》,https:///imo/media/doc/09072023bipartisanaiframework.pdf.31參見《推進(jìn)人工智能的可問責(zé)原則》,https:///science-and-technology/advancing-accountability-in-ai_2448f04b-en.32參見《人工智能監(jiān)管:支持創(chuàng)新的方法》,https://.uk/government/publications/ai-regulation-a-pro-innovation-approach.大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023)利》,https://利》,https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9881490.PAGE32332023年1026其建議采用匿名技術(shù)和數(shù)據(jù)最小化的實踐在維護(hù)個人信息權(quán)利和保3435等廠商在其大模型服務(wù)的協(xié)議中規(guī)定用戶與大模型產(chǎn)品交互的內(nèi)容會被用來進(jìn)行大模型的訓(xùn)練36OpenAI37(二)知識產(chǎn)權(quán)保護(hù)輸入端:訓(xùn)練數(shù)據(jù)版權(quán)治理規(guī)則探索20221233參見《生成式人工智能與數(shù)據(jù)隱私:入門指南》,/product/pdf/R/R47569.34參見《生成式人工智能:數(shù)據(jù)保護(hù)的影響》,https://cedpo.eu/generative-ai-the-data-protection-implications/.35OpenAI4條,/policies/privacy-policy.36參見《OpenAI隱私政策》,/policies/privacy-policy.37參見《ChatGPT:OpenAI重新在意大利開放平臺,保證給歐洲的用戶和非用戶更多的透明度和更多的權(quán)大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023)PAGEPAGE33202324.05美2017389ChatGPTThomsonReutersEnterpriseCenterv.RossIntelligenceInc.392438參見《人工智能未來法案》第4節(jié)b.1.e.39參見ThomsonReutersEnterpriseCenterGMBHandWestPublishingCorp.,v.RossIntelligenceInc.,MemorandumOpinion,Sep.25,2023,CaseNo.1:20-cv-613-SB.。輸出端:人工智能生成物知識產(chǎn)權(quán)保護(hù)進(jìn)路展望。20239能廣島進(jìn)程:達(dá)成G7。4041。40參見北京知識產(chǎn)權(quán)法院民事判決書,(2019)京73民終2030號。41參見廣東省深圳市南山區(qū)人民法院民事判決書,(2019)粵0305民初14010號。OpenAIChatGPT(三)倫理問題治理。專欄2:醫(yī)療領(lǐng)域人工智能大模型存在的偏見風(fēng)險2019年發(fā)表在《科學(xué)》雜志上的一項具有里程碑意義的研究發(fā)14220235月,世界衛(wèi)生組織發(fā)布《呼吁注重(RLHF)是一種將人類反饋與強化學(xué)習(xí)相結(jié)42https:///doi/10.1126/science.aax2342從而有助于開發(fā)更安全的人工智能系統(tǒng)。OpenAI在其最先進(jìn)的ChatGPT和RLHF二三是統(tǒng)長期與人類價值觀保持一致是一個需要解決的挑戰(zhàn)??偠灾?,RLHFRLHF霍普解釋性技術(shù)的綜述,分別對傳統(tǒng)的fine-tuning(微調(diào))模型和基于prompting(提示)的超大模型的可解釋性技術(shù)進(jìn)行了全面的梳理。20233月歐洲標(biāo)準(zhǔn)化組織ETSIpeI宣布成立一個新的I4年內(nèi)研究出讓AIAI為中華文化的傳承與傳播提供解決方案,讓AI與中華文化認(rèn)知對齊草案,禁止實時遠(yuǎn)程生物識別技術(shù);要求OpenAI和谷歌等公司必須進(jìn)行風(fēng)險評估,并披露更多用于訓(xùn)練模型的數(shù)據(jù)。(四)信息內(nèi)容治理(EnergyStarRating)能。美國針對大模型標(biāo)識制度形成了部分立法提案。20235月,·(Yvette6·(RitchieTikTok20239月推出了幫助創(chuàng)作者標(biāo)記其AI生成內(nèi)容的一款新工具,還將開始測試自動標(biāo)記AI生成內(nèi)容的方法。三是行業(yè)協(xié)同履行標(biāo)識義務(wù)。OpenAIMetaAnthropic等美國AI四是為用戶明確義務(wù)要求。20234AIGCAI20238月剛生效的《數(shù)字服務(wù)法10%(4500萬)歐盟、英國法案中均明確提出特殊監(jiān)管要求。如TikTok在監(jiān)管壓力1317四、把握全球大模型治理最新動態(tài)趨勢(一)美國從松散碎片式治理逐步趨向體系化治理AI治理線條。在司法層面,美國法院判例在塑造美國AI治理規(guī)則方面發(fā)揮重要作用,白宮先后宣布分兩批召集谷歌、微軟等共十七家AI頭部企業(yè),推動企業(yè)作出自愿承諾,包括開發(fā)讓消費者能夠辨別AI生成內(nèi)容的方法,聘請獨立專家評估工具的安全性,與外部行業(yè)分享管控AI風(fēng)AIAI以解,要求白宮和商務(wù)部領(lǐng)導(dǎo)建立強有力的人工智能國際框架,與國際合作伙伴和標(biāo)準(zhǔn)組織加快重要AI標(biāo)準(zhǔn)的開發(fā)和實施。三是各部門多管齊下探索大模型監(jiān)管。商務(wù)(NIST)發(fā)布《人工智能風(fēng)險管理框架》,成為美國人工智9月發(fā)布了貸款人202325SB1103AI監(jiān)管藍(lán)圖,其中包括設(shè)立由獨立監(jiān)督機確保AI系統(tǒng)透明度以及保護(hù)消費者和兒童權(quán)益。以舒默為代表提出建議要構(gòu)建與AI技術(shù)相匹配的監(jiān)管架構(gòu),并設(shè)立新的聯(lián)邦機構(gòu)來協(xié)調(diào)AI治理工作。在問責(zé)方面,有專家建議利用和發(fā)揮美國已有的措AI人才(二)歐盟繼續(xù)發(fā)揮人工智能治理領(lǐng)域布魯塞爾效應(yīng)ChatGPT2023331日,意ChatGPTChatGPT的歐洲國家。監(jiān)管機構(gòu)列出四項違反《歐盟2023614風(fēng)險等級應(yīng)用場景監(jiān)管措施不可接受的風(fēng)險采用超越個人意識的潛意識技術(shù)或有目的的決定的能力來實質(zhì)性地扭曲該人的行為(a))該人或該群體的系統(tǒng);基于敏感屬性或特征的生物識別分類系統(tǒng);用于社會評分的系統(tǒng)或根據(jù)自然人或群體的在公共場所使用“實時”遠(yuǎn)程生物識別系統(tǒng),以用于:刑事或行政違法行為的風(fēng)險;展面部識別數(shù)據(jù)庫;在執(zhí)法、邊境管理、工作場所和教育機構(gòu)中推斷自然人的情緒場投入使用違反者將被處47%,以較高者為準(zhǔn)高風(fēng)險1.維護(hù)風(fēng)險管理制根據(jù)法律需要接受第三方機構(gòu)的健康和安全度;②風(fēng)險評估才可以進(jìn)入市場③2.符合高風(fēng)險等級標(biāo)準(zhǔn)且用于下述領(lǐng)域的獨立人工智能系統(tǒng):④⑤通過合格評估生物識別和基于生物識別的系統(tǒng);關(guān)鍵基礎(chǔ)設(shè)施的管理和運作;教育和職業(yè)培訓(xùn);就業(yè)、工人管理和獲得自營職業(yè);及福利;程序;冊;②貼上歐盟CE標(biāo)志;執(zhí)法工作;移民、庇護(hù)和邊境管制管理;司法行政和民主進(jìn)程市場風(fēng)險監(jiān)測系施有限風(fēng)險與人類互動的系統(tǒng)情緒識別系統(tǒng)生物特征分類系統(tǒng)生成或操縱圖像、音視頻等內(nèi)容的系統(tǒng)透明義務(wù)要求極低風(fēng)險允許自由使用人工智能的電子游戲或垃圾郵件過濾器等應(yīng)用不做干預(yù)表1歐盟《人工智能法案》人工智能系統(tǒng)風(fēng)險等級及監(jiān)管措施分類表二是將高風(fēng)險人工智能系統(tǒng)作為監(jiān)管重點。高風(fēng)險人工智能系統(tǒng)規(guī)定了從入市前到入市后的全生命周期合規(guī)要第16(a)日志⑤過相關(guān)的合格/符合性評估程序(cnorityasesentprcdre,由評定機構(gòu)對人工智能系統(tǒng)是否滿足法案第二章所規(guī)定的各項要求進(jìn)行驗證。進(jìn)入市場時,提供者應(yīng)當(dāng):①將系統(tǒng)在歐盟數(shù)據(jù)庫中注冊(第51/E志;進(jìn)入市場后,提供者應(yīng)當(dāng)履行:①部署后市場風(fēng)險監(jiān)測系統(tǒng)(post-marketmonitoringsystem)的義務(wù),用于收集、記錄和分析系統(tǒng)在整個生命周期內(nèi)運營性能數(shù)據(jù);②采取糾正措施的義務(wù),提供者如果認(rèn)為或有理由認(rèn)為系統(tǒng)在投入市場后不合規(guī),應(yīng)立即采取撤回、失效、召回、通知其他參與者等糾正措施。員國在AI系統(tǒng)開發(fā)和上市前的有限時間內(nèi)建立一個受控的實驗和測20226月,西班牙政府和歐盟委員會管方式。目前該試點向其他成員國開放,其監(jiān)管沙盒測試結(jié)果將在2023202212月,歐盟理事會在提案中加入通用目的人工智能的概念。20232月,相關(guān)部門建議沒有人類監(jiān)督的情況下生成復(fù)雜文本的AI(htal-E23年5ChatGPT等AIAI系統(tǒng)監(jiān)管范圍之外。OpenAI首席執(zhí)行官SamAltman巡回歐ChatGPT20236(AIGC)AI清單中移除。另ChatGPT的基28b當(dāng)?shù)男阅?、可解釋性、可更正性、安全性(c款。二是備案要求,基礎(chǔ)模型應(yīng)在進(jìn)入市場前在歐盟數(shù)據(jù)庫注冊(g款。三是其他透明(三)英國力圖以促進(jìn)創(chuàng)新的監(jiān)管方法引領(lǐng)全球治理AIAI企業(yè)數(shù)量占?xì)W洲總數(shù)的三分之一,并有Deepmind等前沿代表,擁有艾倫·圖靈研究所、牛津互聯(lián)網(wǎng)中心、帝國理工學(xué)院等世界領(lǐng)先的高校美國”模式之間尋求平衡點,為AI闡明促進(jìn)創(chuàng)新的監(jiān)管政策方向。20233月,科學(xué)、創(chuàng)新和技術(shù)部(DSIT)發(fā)布《促進(jìn)創(chuàng)新的人工智能監(jiān)管方法》白皮書。治理方法)探索基礎(chǔ)模型對市場競爭和消費者的影響,創(chuàng)造良好競爭生態(tài)。20239月,市場和競爭管理局(CMA)發(fā)布了《人工智能基礎(chǔ)模13的人工智能開發(fā)。202341億英鎊初始資金建立基礎(chǔ)模型工作組,旨在通過強化人工智能基礎(chǔ)模型的發(fā)展和應(yīng)促成各國對人工智能的機遇和風(fēng)險、以及在安全領(lǐng)域采取協(xié)作的共1等國家和企業(yè)合作,設(shè)立全球首個人工智能安全研究發(fā)布前后開展涵蓋所有風(fēng)險的測試,以消減人工智能模型潛在的危12(四)國際組織在大模型治理國際合作中各顯其能集團、金磚國家為代表的涵蓋發(fā)達(dá)國家與新興市場等各類型經(jīng)濟體的國際組織,均在通過發(fā)布文件、舉辦會議、磋商合作等方式,積極參與人工智能監(jiān)管體系與國際合作模式的構(gòu)建。一是聯(lián)合國成為推動人工智能全球監(jiān)管合作的重要機制。發(fā)布系列文件助力全球倫理共識落地。20235月《生成式人工智能在教6400關(guān)法案,落實《教科文組織人工智能倫理建議書》。10月與歐盟改61052026年前完成有法律約束力的國際文書談判工作,以禁G7峰會推進(jìn)構(gòu)建一致且互操作性的人工智能監(jiān)管規(guī)則。20235月,七國集團(G7)領(lǐng)導(dǎo)人在日本廣島舉行年度峰會,就(CSIS)2023G7峰會推進(jìn)人工智能治合作制定人工智能技術(shù)標(biāo)準(zhǔn),建立互認(rèn)框架,提升跨司法轄區(qū)集團11國在人工智能領(lǐng)域具有豐富應(yīng)用場景、良好2021年發(fā)布人工智能戰(zhàn)略,提出人工智能開發(fā)和使用2020202220152018能戰(zhàn)略》提出由政府推進(jìn)標(biāo)準(zhǔn)化負(fù)責(zé)任的人工智能開發(fā),2023年提五、探索我國大模型治理的主要落地工具(一)事前備案(APP)20231115110064361187%38%CWPSAIWPSAI,當(dāng)前WPS已經(jīng)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論