厘清算法安全(影響)評估制度邏輯加快提升人工 智能治理水平_第1頁
厘清算法安全(影響)評估制度邏輯加快提升人工 智能治理水平_第2頁
厘清算法安全(影響)評估制度邏輯加快提升人工 智能治理水平_第3頁
厘清算法安全(影響)評估制度邏輯加快提升人工 智能治理水平_第4頁
厘清算法安全(影響)評估制度邏輯加快提升人工 智能治理水平_第5頁
已閱讀5頁,還剩1頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

厘清算法安全(影響)評估制度邏輯,加快提升人工智能治理水平一、《生成式人工智能服務(wù)安全基本要求》出臺的重要性2023年8月15日,《生成式人工智能服務(wù)管理暫行辦法》正式施行,其中明確指出,“提供具有輿論屬性或者社會動員能力的生成式人工智能服務(wù)的,應(yīng)當(dāng)按照國家有關(guān)規(guī)定開展安全評估”,同時也要求在生成式人工智能技術(shù)研發(fā)過程中需要“開展數(shù)據(jù)標(biāo)注質(zhì)量評估”。為進一步落實該文件,2024年2月,全國網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會發(fā)布了技術(shù)文件《生成式人工智能服務(wù)安全基本要求》(以下簡稱《安全基本要求》),從語料安全、模型安全、安全措施等方面提出了安全評估要求,為生成式人工智能服務(wù)提供者的安全評估工作、相關(guān)主管部門評判生成式人工智能服務(wù)安全水平提供了重要參考。盡管《安全基本要求》作為技術(shù)文件并不具有強制性,其治理效果仍然取決于監(jiān)管部門、一線技術(shù)研發(fā)與應(yīng)用主體、市場第三方評估機構(gòu)等利益相關(guān)主體如何理解、使用、執(zhí)行,但從制度演化視角來看,其是我國國家層面治理機構(gòu)第一次對人工智能算法安全評估的對象、范疇、標(biāo)準(zhǔn)等實質(zhì)性內(nèi)容提出制度要求,對于我國完善人工智能算法安全評估制度建設(shè)具有關(guān)鍵性的推動作用。換言之,只有邁出了《安全基本要求》這樣一個重要起點,我們才可能在不斷的補充、調(diào)整、完善過程中積累治理經(jīng)驗,真正開啟人工智能算法安全評估的制度探索進程。從全球視角來看,當(dāng)前世界各主要國家的人工智能治理正在經(jīng)歷從原則理念向制度落實方向發(fā)展的新階段,人工智能安全(影響)評估作為基礎(chǔ)性制度已經(jīng)被普遍納入各國制度框架,歐盟、加拿大、美國等也初步形成了一定的制度探索。相比之下,我國雖在不同政策文本中都明確提出了要開展人工智能安全(影響)評估的基本要求,但直到《安全基本要求》的提出之前,我國并未形成較明確的評估框架,也未提出較明確的評估要求。在此背景下,《安全基本要求》的出臺,有助于我們在比較不同國家制度差異的基礎(chǔ)上,積累中國在算法安全(影響)評估方面的治理經(jīng)驗,進而向人工智能全球治理做出貢獻,協(xié)力各方共同促進人工智能治理。不過人工智能安全議題本身的復(fù)雜性和不確定性,使得人工智能算法安全(影響)評估的體系構(gòu)建與機制探索并非單靠一個文件就能完成,其仍然依賴于自上而下對整體性頂層設(shè)計邏輯的斟酌權(quán)衡,以及自下而上治理經(jīng)驗的匯集與擴散。在《安全基本要求》作為重要制度文件出臺的背景下,對人工智能算法安全評估的制度邏輯展開分析,因此也具有了極為重要的理論價值與實踐指導(dǎo)意義。二、人工智能算法安全評估的制度邏輯與目標(biāo)從制度特點來講,安全(影響)評估制度的特點在于將治理重心從結(jié)果轉(zhuǎn)向過程,在淡化追溯直接責(zé)任因果鏈條的同時,強調(diào)治理信息的記錄、共享、監(jiān)督,并在此過程中積累治理經(jīng)驗,同時為算法設(shè)計者、應(yīng)用者的及時調(diào)整提供參考。具體而言,傳統(tǒng)監(jiān)管是直接面向可能出現(xiàn)的風(fēng)險而展開,旨在對市場失靈現(xiàn)象作出回應(yīng)以避免出現(xiàn)權(quán)益侵害風(fēng)險,其針對的是風(fēng)險結(jié)果而并不特別在意導(dǎo)致風(fēng)險產(chǎn)生的過程;但安全(影響)評估制度卻“反其道而行之”,更關(guān)注安全風(fēng)險產(chǎn)生過程,并要求作為一線主體的技術(shù)創(chuàng)新者、應(yīng)用者基于評價結(jié)果而對其內(nèi)部的技術(shù)生產(chǎn)、應(yīng)用過程作出調(diào)整。如果說傳統(tǒng)監(jiān)管仍然建立在較為明確的“市場-政府”二分邊界基礎(chǔ)上,那么安全(影響)評估制度則打破了這一“二分法”,而直接切入至技術(shù)創(chuàng)新應(yīng)用的生產(chǎn)管理過程,以求對風(fēng)險作出敏捷回應(yīng)。具體到人工智能算法作為治理對象而言,算法安全風(fēng)險的環(huán)境嵌入性特征、算法技術(shù)方案的難解釋特征、算法安全風(fēng)險的概率性而非個案性特征,都是催生算法安全(影響)評估制度的重要原因。在此背景下,人工智能算法安全(影響)評估制度的目標(biāo)主要圍繞兩方面而展開:對算法治理過程進行記錄以累積治理經(jīng)驗與知識,基于評估結(jié)果而要求算法設(shè)計與應(yīng)用者及時干涉創(chuàng)新應(yīng)用流程以作出敏捷回應(yīng)。然而,作為一種新興事物,人工智能算法安全(影響)評估制度究竟如何建設(shè),仍然是一個全新命題。綜合制度沿襲和具體政策實踐來看,算法安全(影響)評估有可能采取環(huán)境影響評估、數(shù)據(jù)保護信息評估、列表式評估這三種基本模式。但每一種模式都不是完美的,都存在其優(yōu)勢和不足,而這也正是我們探索算法安全(影響)評估制度建設(shè)過程中所需要關(guān)注的取舍選擇與權(quán)衡之處。三、人工智能算法安全評估的制度建設(shè)模式比較自上個世紀(jì)六七十年代在全球各國逐步建立之后,環(huán)境影響評估幾乎可被視為安全(影響)評估領(lǐng)域最為典型、最具代表意義的制度典范。從制度內(nèi)涵來看,環(huán)境影響評估的關(guān)鍵在于三點:基于環(huán)境影響級別的大小而分別提出不同程度的環(huán)境影響評估要求、廣泛納入公眾參與以確保環(huán)境影響評價的完整性和有效性、要求開展替代方案對比分析以尋找最優(yōu)方案。在算法安全(影響)評估領(lǐng)域,部分利益相關(guān)方提出的制度設(shè)計方案即是以環(huán)境影響評估為藍本,較有代表性的例如紐約大學(xué)智庫AINow在2018年提出的公共部門算法影響評價框架,以及歐洲議會研究服務(wù)中心(EuropeanParliamentaryResearchService,EPRS)2019年研究報告提出的包含8個環(huán)節(jié)的算法影響評價方案。不過相關(guān)反思也指出,環(huán)境影響評估的冗繁要求,以及對廣泛公眾參與的強調(diào),并不一定適合人工智能算法治理領(lǐng)域,特別是完全的公開可能侵害商業(yè)秘密并帶來更大衍生風(fēng)險。數(shù)據(jù)保護影響評估(DataProtectionImpactAssessment,DPIA)的制度框架基本上源起于歐盟《一般通用數(shù)據(jù)規(guī)定》第35款。從流程要求來講,DPIA包括審查基本信息以判斷是否需要進行數(shù)據(jù)保護影響評估、圍繞各目標(biāo)展開影響評估以確定風(fēng)險、向監(jiān)管者報告并分析降低風(fēng)險的可能措施、在全過程咨詢利益相關(guān)方、復(fù)審以在必要時重啟影響評估等。與環(huán)境影響評估相比,DPIA的差別體現(xiàn)在兩點:不特別強調(diào)替代方案的比較、公開并非一項法律責(zé)任的要求而取決于數(shù)據(jù)處理者的決定。DPIA與環(huán)境影響評價的差別,事實上體現(xiàn)了其特殊的制度邏輯:考慮到數(shù)據(jù)治理的復(fù)雜性,DPIA更強調(diào)監(jiān)管者與被監(jiān)管者的合作而非對抗,數(shù)據(jù)處理者作為被監(jiān)管方的利益(例如商業(yè)秘密)因此需要得到承認以激勵其尋找數(shù)據(jù)保護方案的積極性。但對DPIA的反思也正來源于此:在缺少充分公開與監(jiān)督的環(huán)境下,“監(jiān)管俘獲”的擔(dān)憂是否會影響DPIA試圖構(gòu)建的監(jiān)管者與被監(jiān)管者“合作”愿景的實現(xiàn)?第三種模式是采取問題列表清單的方式,而代表性實踐便是加拿大政府在20194月出臺施行的自動決策指令(DirectiveonAutomatedDecision-making),其要求所有被用于行政決策領(lǐng)域的自動決策系統(tǒng)都需要在采購或使用前,按照問題列表清單進行算法影響評估,而該清單每兩年都將被重新評估并更新。具體而言,問題列表共包含風(fēng)險以及風(fēng)險預(yù)防這兩個部分,形成了涉及商業(yè)流程、所用數(shù)據(jù)、模型邏輯等多個方面的80余個具體問題,要求被評估主體對這些問題作出回答,然后基于答案來對被評估系統(tǒng)的風(fēng)險進行評分,并按照評分將之相應(yīng)歸類到上述1-4個風(fēng)險級別之中。該列表清單基本涵蓋了當(dāng)前算法影響評估利益相關(guān)方關(guān)心的主要問題,而評估結(jié)果的公開也進一步促進并提升了自動化決策系統(tǒng)的可解釋性、可被監(jiān)督性,并因而提升了算法治理水平。但針對該模式的反思在于:列表清單能否涵蓋算法治理的所有問題,以及預(yù)先設(shè)定好的問題及答案是否可能會淡化治理經(jīng)驗積累這一算法安全(影響)評估的制度目標(biāo)。上述各有優(yōu)點和不足的三種模式的對比分析說明,算法安全(影響)評估制度建設(shè)還遠未到成熟時期,在“基于標(biāo)準(zhǔn)的監(jiān)管與探索多方合作”、“保護商業(yè)秘密與公眾參與”、“監(jiān)管俘獲與透明”、“封閉列表與開放治理”等多對治理關(guān)鍵點上,都需要決策者的權(quán)衡取舍,并最終找到適應(yīng)本國技術(shù)發(fā)展與應(yīng)用治理需要的平衡點。四、歐、美開展人工智能算法安全評估的政策實踐不同國家出于差異化的制度文化背景、產(chǎn)業(yè)發(fā)展階段與治理需求,在算法影響評價的制度選擇方面仍然體現(xiàn)了一定的側(cè)重,并具有差異化特點。除上文提到加拿大采取的列表清單模式之外,歐盟、美國也在一定程度上形成了各具特色的算法安全評估制度。歐盟《人工智能法案》主要通過兩種方式引入了算法影響評估,并奠定了其在該法案中作為制度基礎(chǔ)的重要作用。一方面,法案要求高風(fēng)險人工智能系統(tǒng)在投入使用前應(yīng)執(zhí)行“合規(guī)性評估(ConformityAssessments)”,即需要按照現(xiàn)行法律規(guī)則來評估該系統(tǒng)是否滿足各項法律要求,并將結(jié)果公開;另一方面,法案要求開展基本權(quán)利影響評估(FundamentalRightsImpactAssessments,FRIA),較為寬泛地提出了9項評估內(nèi)容要求,且不要求完全公開而主要向監(jiān)管機構(gòu)以及利益相關(guān)方匯報或分享。FRIA較有啟發(fā)意義的兩個特點,其一在于將環(huán)境影響視為基本權(quán)利而納入評估范疇之中,這可被視為針對大模型快速發(fā)展的敏捷回應(yīng);其二在于提供了“例外豁免”條款,規(guī)定在應(yīng)急狀況或?qū)τ谥行∑髽I(yè)等缺少評估資源和能力情況下,可以在未展開FRIA的前提下應(yīng)用人工智能。與歐盟相比,算法安全(影響)評估制度在美國人工智能治理框架下并沒有扮演特別重要的基礎(chǔ)性角色。美國當(dāng)前主要將人工智能治理置于垂直領(lǐng)域監(jiān)管框架之下,因而跨領(lǐng)域、一般性的算法算法安全(影響)評估制度建設(shè)并非其重點。但即使如此,兩個政策文件仍然值得重點關(guān)注。一方面,國家標(biāo)準(zhǔn)和技術(shù)研究所(NationalInstituteofStandardsandTechnology,NIST)提出的“人工智能風(fēng)險管理框架”(AIRiskManagementFramework,AIRMF)可被視為專業(yè)機構(gòu)試圖影響行業(yè)實踐的重要工作,該框架同樣提出了風(fēng)險評估的框架、流程乃至指標(biāo);另一方面,拜登政府聯(lián)邦管理與預(yù)算辦公室在2023年10月發(fā)布的“促進聯(lián)邦機構(gòu)推動人工智能治理、創(chuàng)新、風(fēng)險管理的備忘錄”作為聯(lián)邦機構(gòu)應(yīng)用人工智能的治理框架,同樣明確了算法影響評估的關(guān)鍵地位,其區(qū)分了“安全影響”(SafetyImpacting)和“權(quán)益影響”(RightsImpacting)兩種類型,并基于這兩類區(qū)分而分別提出了不同程度的評估責(zé)任要求。五、《安全基本要求》要點特征評析及中國算法安全評估制度的未來改革在理解算法安全(影響)評估制度邏輯、模式及主要國家政策實踐的基礎(chǔ)上,再回過來分析《安全基本要求》的要點特征,以及更一般的我國算法安全(影響)評估制度建設(shè)的改革未來,便可能具有更完整的觀察視野。從內(nèi)容上講,《安全基本要求》涵蓋語料、模型、場景等多個環(huán)節(jié)的治理思路,同樣反映了算法安全(影響)評估作為一種治理制度而與傳統(tǒng)規(guī)制思路的差異所在。在不同環(huán)節(jié)提出的具體治理要求,在模式上可以類比于加拿大列表清單模式,即基于預(yù)先設(shè)定的具體問題或指標(biāo)要求來引導(dǎo)自評估或第三方評估工作。正如前文分析所指出,考慮到算法安全(影響)風(fēng)險的不確定性及其產(chǎn)生機制的復(fù)雜性,類似于DPIA,算法安全(影響)評估同樣需要依賴包括監(jiān)管部門、一線企業(yè)或機構(gòu)、第三方機構(gòu)乃至公眾在內(nèi)的多方主體的監(jiān)管合作,而這其中又特別以一線企業(yè)或機構(gòu)的自評估或第三方評估為要,因它們所擁有的信息、資源優(yōu)勢能夠貢獻出有效的治理知識和經(jīng)驗;但另一方面,如果缺少一定的約束,完全放任的自評估或第三方評估也可能因為缺少充分引導(dǎo)而起不到積累治理經(jīng)驗的積極作用,如果進一步考慮到“共同無知”現(xiàn)象的存在則更是如此。在此背景下,以預(yù)先設(shè)定方式提出具體評估要求,便可被視為啟動評估流程、推動后續(xù)制度持續(xù)演化的一個重要基礎(chǔ),而這同樣應(yīng)被視為《安全基本要求》的積極作用所在。從未來改革來看,如果要充分發(fā)揮《安全基本要求》之于算法安全(影響)評估乃至于人工智能治理的潛在價值,后續(xù)的執(zhí)行以及配套措施的跟上,仍然是關(guān)鍵。一方面,監(jiān)管部門、一線主體、第三方機構(gòu)等多方主體對算法安全(影響)評估的制度邏輯,以及《安全基本要求》在該制度框架下所應(yīng)扮演的角色,需要清晰、整體且具有共識性的理解與把握。在一定程度上,《安全基本要求》不應(yīng)被視為對監(jiān)管部門以及被監(jiān)管主體套上的一個“硬筐”,其更多應(yīng)被視為多方主體通過算法安全(影響)評估而積累算法治理知識與經(jīng)驗、在適當(dāng)時機對算法生產(chǎn)應(yīng)用流程做出干涉的起點。在此意義上,究竟如何應(yīng)用《安全基本要求》、發(fā)揮其推動算法安全(影響)評估的積極作用,仍然是監(jiān)管部門需要考慮的重要工作。另一方面,繼《安全基本要求》之后,算法安全(影響)評估的配套制度可能需要加快演進,以減少制度不確定性空間。這既體現(xiàn)為我國算法安全(影響)評估制度頂層設(shè)計基本邏輯的討論與共識,也體現(xiàn)為具體機制層面的豐富與拓展。就當(dāng)前進程而言,我們還有諸多重要問題尚待回答:“符合、不符合、不適用

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論