AI時代的算法治理報告_第1頁
AI時代的算法治理報告_第2頁
AI時代的算法治理報告_第3頁
AI時代的算法治理報告_第4頁
AI時代的算法治理報告_第5頁
已閱讀5頁,還剩99頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

一一一一人工智能時代的算法治理報告2022局引言01智能化發(fā)展040405I07072.1算法為產(chǎn)業(yè)數(shù)字化轉(zhuǎn)型“增智提效”07產(chǎn)業(yè)創(chuàng)新的基礎(chǔ)設(shè)施0809勢三、國外算法監(jiān)管與法律治理趨勢18理和公共服務(wù)算法應(yīng)用的監(jiān)管20224、算法自動化決策應(yīng)用成為立法規(guī)制重點235、歐美推進監(jiān)管數(shù)字零工經(jīng)濟中的算法應(yīng)用以保障勞動者權(quán)益2426AI27283、業(yè)界探索AI倫理委員會的建設(shè)落地,踐行負(fù)責(zé)任的研究與創(chuàng)新理念30AI32I的眾包改進模式36護5、算法倫理服務(wù)市場興起,彌合倫理要求與技術(shù)實現(xiàn)之間的鴻溝941434445展望:理實踐47在提升社會生產(chǎn)效率和國民生活水平上發(fā)揮了重要作用,成為推動企業(yè)數(shù)字化轉(zhuǎn)型和國家治理2021年伊始,算法進入各國政府的監(jiān)管視野,各國加強了算法監(jiān)管立法以及具體的治理舉措。企業(yè)、研究機構(gòu)以及社會組織也紛紛基于各自不同的視角去探索有效的算法治理模式。本報告嘗試從法律治理、倫理治理和技術(shù)治理三個層面,梳理總結(jié)過去算法治理領(lǐng)域的有益實圖1:算法治理“三維—體”在法律治理層面,中國、歐盟、美英等主要人工智能發(fā)展國家和地區(qū)基于各自的實際情況而采用了不同的路線方針。比如歐盟提出了統(tǒng)—規(guī)則、行政干預(yù)的監(jiān)管方案,美國和英國則強調(diào)促進創(chuàng)新的靈活監(jiān)管,我國以安全為核心建立了—套算法治理體系。在具體的算法治理問題或領(lǐng)域中,各國對算法中的—些共性問題的具體治理舉措存在相同之處,比如算法損害勞動者化決策的監(jiān)管。AI等有益的落地實踐舉措。在技術(shù)治理層面,業(yè)界以可信AI作為實踐方向??尚臕I的核心原則是讓AI應(yīng)用滿足可靠、安技術(shù)創(chuàng)新和實踐??尚臕I是落實算法治理的重要技術(shù)實踐,所遵循的可信特征與AI倫理和相關(guān)。人工智能時代的算法治理報告20221人工智能時代的算法治理報告2022為人工智能等新—代信息技術(shù)的核心,在提升社會生產(chǎn)效率和國民生活水平上發(fā)揮了重要作用。算法不僅在技術(shù)創(chuàng)新發(fā)展方面突飛猛進,而且也在社會經(jīng)濟、文化、生活等方面得到先參與到大模型競賽中,大模型迎來了大爆發(fā),人工智能機器學(xué)習(xí)進入了大模型時代。01大模的速度擴展。比如,從GPT-3模型的1750億參數(shù)到智源悟道2.0的1.75萬億參數(shù),僅僅1年時。在多模態(tài)技術(shù)、transformer網(wǎng)絡(luò)的支撐下,大模型具備了更強的通用性。與很多針對某—種—類問題而設(shè)計的特定算法相比,大模型不需要針對不同場景建構(gòu)不同的場景模型,不需比如OpenAI的GPT-3提供了強大的通用語言理解和生成基礎(chǔ),可以輕松適應(yīng)許多場景和功能有多模態(tài)、多任務(wù)、多具身(embodiment)特點。Gato的訓(xùn)練數(shù)據(jù)集包含廣泛,如圖像、文本、本體感覺(proprioception)、關(guān)節(jié)力矩、按鈕按壓以及其他離散和連續(xù)的觀察行動等不應(yīng)用場景。征,能夠大規(guī)模地在產(chǎn)業(yè)中落地應(yīng)用。大模型正是AI標(biāo)準(zhǔn)化、模塊化、自動化的具體實現(xiàn)路徑,并且大模型形成的成本邊際效應(yīng),極大地節(jié)約了AI應(yīng)用成本。當(dāng)前很多研究機構(gòu)和科技企業(yè)發(fā)展的重要工具,尋求其大模型的落地實踐。01SevillaJ,HeimL,HoA,etal.ComputetrendsacrossthreeerasofmachinelearningJ.arXivpreprintarXiv:2202.05924,2022.稱、代碼生成成成多模態(tài)多模態(tài)多模態(tài)推理等多模態(tài)推理表1:國外主要的AI大模型—覽表利用生成對抗性網(wǎng)絡(luò)(GAN)等AI深度合成技術(shù)自動生產(chǎn)的合成數(shù)據(jù),為算法技術(shù)創(chuàng)新及其在數(shù)據(jù)源。由于合成數(shù)據(jù)是通過深度合成技術(shù)自動生產(chǎn)的數(shù)據(jù),相較于基于真實世界采集的數(shù)據(jù)更易獲取。企業(yè)可以用合成數(shù)據(jù)來增強其訓(xùn)練數(shù)據(jù),節(jié)省數(shù)據(jù)人工智能時代的算法治理報告2022發(fā)展方向。人們已經(jīng)關(guān)注到合成數(shù)據(jù)給算法技術(shù)創(chuàng)新帶來的巨大推動作用。2021年Forrester能夠提高模型的準(zhǔn)確性、魯棒性和通用性。領(lǐng)域中的模型驗證、模型訓(xùn)練、新產(chǎn)品測試等環(huán)節(jié)中應(yīng)用。在自動駕駛領(lǐng)域,為了滿足安全需求,所有自動駕駛系統(tǒng)都需要適應(yīng)不斷變化的環(huán)境,甚至包括等聯(lián)合發(fā)布了目前最大的自動SHIFT測、對象跟蹤等12種主流的足天氣狀況、車流和人流密度等24種不同類型的駕駛環(huán)境變化。03在醫(yī)療領(lǐng)域,由于數(shù)據(jù)的敏感性而導(dǎo)致算法訓(xùn)練數(shù)據(jù)存在較大的獲取難度,并且容易引起隱私數(shù)據(jù)合規(guī)問題,因此合成數(shù)據(jù)成為了醫(yī)療人工智能領(lǐng)域的首選。比如,以色列健康IT供應(yīng)商MDClone提供的合成數(shù)據(jù)被特拉維夫的舍巴(Sheba)醫(yī)療中心用作COVID-19的研究,預(yù)測同時,合成數(shù)據(jù)蘊藏的商業(yè)機會也逐漸獲得大型科技企業(yè)和創(chuàng)業(yè)公司的關(guān)注,產(chǎn)業(yè)側(cè)開始加部分是合成數(shù)據(jù),沒有合成數(shù)據(jù)將無法建構(gòu)高質(zhì)量、高價值的人工智能模型。05合成數(shù)據(jù)初創(chuàng)DatagenOfirZuk示:“合成數(shù)據(jù)的總目標(biāo)市場和數(shù)據(jù)的總目標(biāo)市場將會融合?!?6除了越來越多的創(chuàng)業(yè)公司以合成數(shù)據(jù)業(yè)務(wù)作為突破點,科技巨頭們也開始在該領(lǐng)域布作。02/report/the-top-trends-and-technologies-to-watch-q3-2021/RES17625103https://www.vis.xyz/shift/04/searchdatamanagement/news/252483300/How-a-synthetic-data-approach-is-helping-COVID-19-research05/document/400291206/html/2022-06/13_391537.html生成性AI作為人工智能的最新發(fā)展方向,可以自主生成文本、圖像、音頻、視頻、虛擬場景等字內(nèi)容業(yè)態(tài)帶來巨大影響。就目前而言,生成性AI幾乎不需要人類參與就可以生成高質(zhì)量的創(chuàng)造性內(nèi)容,人類只需設(shè)置好景,生成性AI就會自主輸出想要的結(jié)果,實現(xiàn)圖片風(fēng)格轉(zhuǎn)化、文本轉(zhuǎn)圖像、圖片轉(zhuǎn)表情包、D。例2.1算法為產(chǎn)業(yè)數(shù)字化轉(zhuǎn)型“增智提效”的農(nóng)產(chǎn)品生產(chǎn)加工環(huán)境模擬仿真和病蟲害監(jiān)測預(yù)警系統(tǒng),農(nóng)田建設(shè)綜合監(jiān)測監(jiān)管平臺,育種、過程利用虛擬模型可以盡可能優(yōu)化生產(chǎn)工藝,在生產(chǎn)線落地的調(diào)試過程中可以實現(xiàn)德國方面的07/meta-is-working-on-an-ai-builder-bot-for-the-metaverse-181034157.html?guccounter=1&guce_referrer=aHR0cHM6Ly08/en/newsroom/press-releases/2022-05-24-gartner-identifies-three-technology-trends-gaining-tr人工智能時代的算法治理報告2022提升了工廠生產(chǎn)效率。尾或邊緣場景。因此,在道路測試之外,自動駕駛廠商更多依靠模擬仿真技術(shù)訓(xùn)練算法。谷歌旗下自動駕駛公司W(wǎng)aymo實際道路測試僅3200萬公里,而虛擬仿真測試則達(dá)到了240億公里;通用旗下自動駕駛公司Cruise實際道路測試160萬公里,虛擬仿真測試80億公里,實際路條例》明確鼓勵通過仿真模擬平臺對自動駕駛算法進行仿真測試和技術(shù)驗證。10在這方面,騰業(yè)可在—天之內(nèi)完成1000萬公里的測試,而同樣的測試如果在真實環(huán)境中進行的話則需要花了算法為新興產(chǎn)業(yè)的發(fā)展帶來的價值。發(fā)對數(shù)字內(nèi)容傳播、數(shù)字內(nèi)容新業(yè)態(tài)(如短視頻)發(fā)展起到了重要推動作用。算法推薦技術(shù)能、短視頻等新業(yè)態(tài)的快速嶇起,與算法推薦技術(shù)的應(yīng)用息息相關(guān)。其次,算法已經(jīng)逐漸滲透進了內(nèi)容生產(chǎn)的各個環(huán)節(jié),被認(rèn)為是數(shù)字時代文化產(chǎn)業(yè)的“新流水線”,大大提升了數(shù)字內(nèi)容生產(chǎn)的效率和規(guī)模。以游戲工業(yè)化為例,算法對于游戲制作流程和研發(fā)效能提升有非常大的促進作用。現(xiàn)在游戲制作從程序化生成(PGC)到部分內(nèi)容由AI算法輔助,還有的可以實現(xiàn)根據(jù)已有生產(chǎn)標(biāo)準(zhǔn)和規(guī)則包裝流程讓算法驅(qū)動量產(chǎn)。AI生成內(nèi)容(AIcontentAIGC體積極開展智能化的新聞采編,機器自動生成的新聞成為傳統(tǒng)新聞報道的有力補充。騰訊多媒體實驗室打造的智能內(nèi)容生產(chǎn)平臺(SmartContentPlatform)可以將視頻、音樂、文字、圖的整合和轉(zhuǎn)化,高效的生產(chǎn)各種類型的內(nèi)容。09/gsc_news/en/20210712-waymo-simulation-city-autonomous-vehicles10/rdlv/chwgg/content/post_826149.html在國家信息化戰(zhàn)略以及治理現(xiàn)代化的指導(dǎo)下,算法進—步推動智慧政務(wù)“服務(wù)下沉”。政務(wù)信級政府改革的剛需。首先,算法極大地優(yōu)化了社會公共服務(wù)效率,成果最為顯著的就是數(shù)字政府、數(shù)字政務(wù)。近些法創(chuàng)爾計劃將經(jīng)濟、文化、旅游、教育、信訪等市政府所有業(yè)務(wù)領(lǐng)域打造元宇宙行政服務(wù)生態(tài),其終極目標(biāo)是要成為—個元宇宙城市。11這將賦能城市管理部門,實現(xiàn)對城市的實時化、精細(xì)中也體現(xiàn)了強大優(yōu)勢。比如借助算法來預(yù)測疫情發(fā)展趨勢,月,為配合各級政府尤其是基層政府的春節(jié)防疫工作,騰訊的企業(yè)微信政務(wù)版推出“春節(jié)防疫將防疫措施精準(zhǔn)高效落實。11/article/7174994.html2人工智能時代的算法治理報告2022局推薦算法對互聯(lián)網(wǎng)行業(yè)的發(fā)展是—把“雙刃劍”,它在重塑信息分發(fā)模式和信息內(nèi)容生態(tài)的同時,也引發(fā)信息繭房、大數(shù)據(jù)殺熟、算法歧視、誘導(dǎo)沉迷等—系列問題。國家針對這些問題采2021年12月,國家互聯(lián)網(wǎng)信息辦公室等四部門聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《規(guī)定》),標(biāo)志著推薦算法成為重點監(jiān)管對象。首先,《規(guī)定》明確了推薦算法監(jiān)管的價值導(dǎo)向。算法推薦服務(wù)提供者應(yīng)當(dāng)堅持主流價值導(dǎo)向,優(yōu)化算法推薦服務(wù)機制,積極傳播正能量,促進算法應(yīng)用向上向善。其次,針對推薦算法應(yīng)用,《規(guī)定》提出了—系列監(jiān)管舉措,包括算法安全風(fēng)險監(jiān)測、算法安全評估、算法備案管理等?!兑?guī)定》要求算法推薦服務(wù)提供者依靠自評估、第三方評估等,深入分析算法機制機理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,評估算法設(shè)計、部署和使用等應(yīng)用環(huán)節(jié)的缺陷和漏洞,避免算法應(yīng)用產(chǎn)生的社會公平、道德倫理、內(nèi)容管理等安全問題。再次,《規(guī)定》強化了平臺企業(yè)的算法安全責(zé)任。平臺需要建立算法安全責(zé)任制度,設(shè)置算法安全管理組織機構(gòu),對算法的數(shù)據(jù)使用、應(yīng)用場景、影響效果等開展日常監(jiān)測工作,感知算法應(yīng)用帶來的網(wǎng)絡(luò)傳播趨勢,預(yù)警算法應(yīng)用可能產(chǎn)生的安全問題。最后,圍繞信息繭房、算法歧視、誘導(dǎo)沉迷等問題造成的對用戶權(quán)益的損害,《規(guī)定》明確了算法推薦服務(wù)提供者的用戶權(quán)益保護要求。其中包括保障算法知情權(quán),要求平臺告知用戶提供的算法推薦服務(wù)情況,并公示算法的基本原理、目的意圖和主要運行機制等;保障算法選擇權(quán),平臺應(yīng)當(dāng)向用戶提供不針對其個人特征的選項,或者便捷的關(guān)閉算法推薦服務(wù)的選項;針對誘導(dǎo)沉迷問題,《規(guī)定》要求平臺不得利用算法推薦服務(wù)誘導(dǎo)未成年人沉迷網(wǎng)絡(luò),應(yīng)當(dāng)便利薦服務(wù)。為落實《規(guī)定》的相關(guān)要求,中央網(wǎng)信辦于2022年4月8日發(fā)布通知,提出將牽頭開展“清朗·2022年算法綜合治理”專項行動。專項行動深入排查整改互聯(lián)網(wǎng)企業(yè)平臺算法安全問題,評估算法安全能力,重點檢查具有較強輿論屬性或社會動員能力的大型網(wǎng)站、平臺及產(chǎn)品,推動算法綜合治理工作常態(tài)化和規(guī)范化,營造風(fēng)清氣正的網(wǎng)絡(luò)空間。益騎手的勞動時間數(shù)據(jù),不斷縮短騎手配送每—單的勞動時間,使得騎手不能有絲毫懈怠12;其二,算法對騎手設(shè)置嚴(yán)苛的考核指標(biāo)并以此決定勞動報酬。平臺通過算法對配送單數(shù)、配送時間、用戶評價等設(shè)置嚴(yán)格的考核指標(biāo),從而降低勞動用工成本,達(dá)到提高平臺自身收益的目的;其三,算法由平臺單方設(shè)定,而騎手缺乏話語權(quán)。法有異議時難以獲得救濟。13例如,在外賣配送過程中,騎手發(fā)現(xiàn)顧客端顯示的送達(dá)時間與騎要企業(yè)著重行業(yè)生態(tài)家相關(guān)部門督促制定修訂平臺算法,加強新就業(yè)形態(tài)勞動者權(quán)益保障。首先,為了改善勞動展改革委、最高人民法院等八個部門發(fā)布《關(guān)于維護新就業(yè)形態(tài)勞動者勞動保障權(quán)益指導(dǎo)意見》,明確要求企業(yè)在制定修訂平臺進入退出、訂單分配、計件單價、抽成比例、報酬構(gòu)成及支付、工作時間、獎懲等直接涉及勞動者權(quán)益的制度規(guī)則和平臺算法時充分聽取工會和勞動者14參考《外賣騎手,困在系統(tǒng)里》,/p/225120404。人工智能時代的算法治理報告2022局為了糾正平臺方不斷增加勞動者工作強度的行為,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確小程序在服務(wù)協(xié)議與平臺規(guī)則中公布派單規(guī)則,以可視化的方式,向用戶和網(wǎng)約車服務(wù)者展示給乘客派單的算法邏輯。外賣平臺美團在2021年向外界首次公布外賣配送中“預(yù)估到達(dá)時間”算法規(guī)則,展示了送達(dá)時間算法的計算邏輯,而從配送時間點到彈性時間段的優(yōu)化不僅讓用戶獲得了更合理的預(yù)期,也減輕了騎手在特殊場景下的配送壓力。數(shù)據(jù)顯示,新算法機制下算法應(yīng)用中的數(shù)據(jù)競爭秩序需要被積極規(guī)范。算法培育高度依賴海量數(shù)據(jù)輸入,算法運用有效協(xié)助篩選高價值數(shù)據(jù),數(shù)據(jù)規(guī)模擴大和更新加快轉(zhuǎn)而又可以促進算法優(yōu)化,算法質(zhì)量提升助力術(shù)優(yōu)爭奪和利用的數(shù)據(jù)不正當(dāng)競爭糾紛不斷涌現(xiàn),以數(shù)據(jù)抓取、撞庫攻擊、侵入系統(tǒng)、復(fù)制摘取等使用的不正當(dāng)競爭、數(shù)據(jù)質(zhì)量緞疲的不正當(dāng)競爭等多種類型糾紛。17商業(yè)主體間數(shù)據(jù)競爭的規(guī)項“算法取中”舉措,/tech/article/GJIKBGVM00097U7R.html。16陳兵、林思宇:“互聯(lián)網(wǎng)平臺壟斷治理機制研究——基于平臺雙輪壟斷發(fā)生機理的考察”,載《中國流通經(jīng)濟》2021年第6期,第43頁。17胡迎春、摩懷學(xué):“論數(shù)據(jù)不正當(dāng)競爭的演進與規(guī)制”,載《競爭政策研究》,2021年第2期,第90-93頁。人工智能時代的算法治理報告2022局則如何確定、數(shù)據(jù)競爭的邊界如何劃定,直接影響人工智能算法的質(zhì)量,并決定數(shù)據(jù)+算法雙險,預(yù)防數(shù)據(jù)競爭失范風(fēng)險,實現(xiàn)人工智能算法的源頭規(guī)制?!跋碛懈偁幮詸?quán)益是數(shù)據(jù)不正當(dāng)競爭認(rèn)定的前提,未經(jīng)和國反不正當(dāng)競爭法〉若干問題的解釋(征求意見稿)》中得到確認(rèn)。但是,數(shù)據(jù)競爭規(guī)則的核心考量因素并不僅僅著眼于平臺企業(yè)因產(chǎn)品邏輯被擾亂、流量優(yōu)勢被擠占、健康生態(tài)被破壞用戶隱私保護為限,以社會整體福利為宗旨。戶基本意愿相符,是否經(jīng)由用戶自主選擇。數(shù)據(jù)獲取后使用行為所帶來的創(chuàng)新增益及其對社會福扯的效用是探索數(shù)據(jù)競爭規(guī)則的關(guān)鍵話題。如何在平臺利益保護與創(chuàng)新激勵中實現(xiàn)平衡,如何在數(shù)據(jù)控制與數(shù)據(jù)共享中合理配置資源,是維護數(shù)字經(jīng)濟的關(guān)鍵。在智聯(lián)招聘訴逸橙科技不正當(dāng)競爭糾紛案19中,法院更多行深度再加工,進而向其客戶提供算法推測服務(wù),促進和創(chuàng)新了服務(wù)供給。即使是企圖構(gòu)建單—數(shù)據(jù)市場而倡導(dǎo)數(shù)據(jù)共享的歐盟,也強調(diào)“接受用戶數(shù)據(jù)的第三方不得使用其接收到的數(shù)據(jù)來開發(fā)和訪問與數(shù)據(jù)來源的產(chǎn)品相競爭的產(chǎn)品,或出于此目的與其他第三方共享數(shù)據(jù)”20,明線邊界。19上海市楊浦區(qū)人民法院(2019)滬0110民初16688號民事判決書。20DataAct:ProposalforaRegulationonharmonisedrulesonfairaccesstoanduseofdata,https://digital-strategy.ec.europa.eu/en/library/data-act-pro-posalregulationharmonisedrulesfairaccessandusedata.4、應(yīng)對算法推薦版權(quán)治理挑戰(zhàn),加強平臺版權(quán)治理責(zé)任分發(fā)技術(shù),給版權(quán)保護工作帶來了諸多挑戰(zhàn)??陀^上來看,為應(yīng)加強算法推薦平臺的版權(quán)治理主體責(zé)任,以此來應(yīng)對算法推薦對網(wǎng)絡(luò)版權(quán)治理的挑戰(zhàn)。這首先,算法推薦模式下的平臺版權(quán)注意義務(wù)規(guī)則體系正在逐步完善,平臺應(yīng)承擔(dān)事前和事后的版權(quán)侵權(quán)過濾、屏蔽義務(wù)。在立法層面,2021年頒布的《民法典》將網(wǎng)絡(luò)侵權(quán)責(zé)任認(rèn)定領(lǐng)域上還需要進—步完善算法推薦模式下的平臺版權(quán)注意義務(wù)。正如海淀法院在“全國首例算椿攻略》案”中所指出的,算法推薦既是更加先進和其次,算法推薦模式下平臺應(yīng)承擔(dān)版權(quán)保護主體責(zé)任,不斷完善算法推薦模型中的版權(quán)保護權(quán)重與機制。算法推薦模式下應(yīng)該將相關(guān)的版權(quán)侵權(quán)責(zé)任配置給作為技術(shù)使用人的平臺承擔(dān)。算當(dāng)由平臺這—工具的使用人或服務(wù)的提供人承擔(dān),司法實踐對此予以高度認(rèn)可。例如在“騰訊訴上海盈訊網(wǎng)貸之家侵害Dreamwriter智能寫作案”中,深訓(xùn)南山區(qū)法院便明確利用人工能力獲得普遍增強,那么侵權(quán)識別、過濾等方面的版權(quán)保護義務(wù)也要相應(yīng)提升。從近期司法實務(wù),這驗證了當(dāng)下版權(quán)領(lǐng)域相關(guān)保護技術(shù)的成熟。2021年6月4日,重慶市人工智能時代的算法治理報告2022局P傳風(fēng)暴》的侵權(quán)內(nèi)容,抖音、西瓜平臺向北京知識產(chǎn)權(quán)法院承諾,履行高于信息存儲空間服務(wù)提供者必須承擔(dān)的通知刪除義務(wù),涵蓋了主動審查過濾、阻攔遏制侵權(quán)行為等內(nèi)容。法對于網(wǎng)絡(luò)版權(quán)侵權(quán)問題的治理成效十分顯著。國家版權(quán)局等四部門于2021年6月聯(lián)合啟動打擊網(wǎng)絡(luò)侵權(quán)盜版“劍網(wǎng)2021”專項行動,重點強化短視頻、網(wǎng)絡(luò)直播、體育賽事和在線教育領(lǐng)域版權(quán)監(jiān)管,重點打擊未經(jīng)授權(quán)對視聽作品刪減切條、集中批量上傳大型體育賽事節(jié)目、盜版電子教材和課件視頻等侵權(quán)行為。專項行動期間,共刪除侵權(quán)盜版鏈接119.7萬條,關(guān)閉侵APP1066個,查辦網(wǎng)絡(luò)侵權(quán)盜版案件1031件,其中刑事案件135件,涉案金額5、規(guī)范深度合成技術(shù)應(yīng)用,平衡創(chuàng)新與安全越來越低,實現(xiàn)了技術(shù)的“平民化”,深度合成內(nèi)容負(fù)面風(fēng)險持續(xù)加劇且產(chǎn)生實質(zhì)危害。有專針對深度合成技術(shù)濫用所帶來的問題,我國正積極探尋建設(shè)有效治理機制。自2019年11月起,我國先后出臺《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》、《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等文件,均對生成合成類內(nèi)容提出不同程度的治理要求。2022年1月,國家網(wǎng)信辦發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定(征求意見稿)》(以下簡稱《規(guī)定(征求意見稿)》),全面系統(tǒng)地對深度合成內(nèi)容的用途、標(biāo)記、使用范圍以及濫用處罰作出規(guī)定。22該《規(guī)定(征求意見稿)》具有如下舉措:21/jwb/html/2022-07/01/content_15361_6391244.htm22/xinwen/2022-01/28/content_5671053.htm造內(nèi)容的傳播。《規(guī)定(征求意見稿)》要求深度合成服務(wù)提供者對使用其服務(wù)所制作的深度合成信息內(nèi)容,通過有效技術(shù)措施添加不影響用戶使用的標(biāo)識,依法保存日志信息,使深度合應(yīng)當(dāng)提供進行顯著標(biāo)識的功能,并提示使用者可以自行標(biāo)識。發(fā)現(xiàn)應(yīng)該進行顯著標(biāo)識而未顯著輸該信息,按規(guī)定作出顯著標(biāo)識后,方可繼續(xù)傳輸。他人權(quán)益的信息內(nèi)容傳播?!兑?guī)定(征求意見稿)》要求深度合成服務(wù)提供者開發(fā)上線具有輿產(chǎn)品、新應(yīng)用、新功能,應(yīng)當(dāng)按照國家有關(guān)規(guī)定開展安全評估;應(yīng)當(dāng)建立健全辟謠機制,發(fā)現(xiàn)深度合成信息服務(wù)使用者利用深度合成技術(shù)制作、復(fù)制、發(fā)布、保障措施。最后,明確了監(jiān)管和處罰要求?!兑?guī)定(征求意見稿)》明確了在我國境內(nèi)應(yīng)用深度合成技術(shù)門對深度合成信息服務(wù)提供者履行深度合成信息內(nèi)容管理主體責(zé)任情況開展監(jiān)督檢查,對存在問題的深度合成信息服務(wù)提供者及時提出整改意見并限期整改。深度合成服務(wù)提供者對網(wǎng)信部門依法實施的監(jiān)督檢查,應(yīng)當(dāng)予以配合,并提供必要的技術(shù)、數(shù)據(jù)等支持和協(xié)助。如有違反法限。33人工智能時代的算法治理報告2022局體領(lǐng)域開展了大量的立法實踐和監(jiān)管舉措,比如精準(zhǔn)廣告、社會治理和公共服務(wù)、勞動權(quán)益保等領(lǐng)域。此外,算法應(yīng)用中的個人數(shù)據(jù)保護依然被監(jiān)管方重視。歐盟在算法監(jiān)管上采取以統(tǒng)—監(jiān)管規(guī)則、行政治理干預(yù)為主的路徑,從“軟性”倫理規(guī)范原則走向“硬性”法律監(jiān)管規(guī)則,不斷搶占全球算法治理規(guī)則的主導(dǎo)權(quán)。早在2018年,歐盟發(fā)布《歐盟人工智能戰(zhàn)略》和《歐盟人工智能協(xié)同計劃》,提出了要加強對算法風(fēng)險應(yīng)對策略出了人工智能倫理治理的頂層框架,確定了以占據(jù)倫理高地作為其發(fā)展人工智能和爭取國際規(guī)則制定權(quán)的突破口和優(yōu)勢手能政策將走向監(jiān)管。2021年4月,歐盟提出《關(guān)于人工智能的統(tǒng)—規(guī)則(人工智能法案)》,首先,該法案涵蓋所有領(lǐng)域(軍事除外)以及所有類型的人工智能,適用于在歐盟境內(nèi)將人工智能系統(tǒng)投放市場或投入使用的實體(無論該實體是在歐盟境內(nèi)還是在第三國)、在歐盟境內(nèi)使用人工智能系統(tǒng)的實體以及在第三國使用人工智能系統(tǒng)但系統(tǒng)的輸出用于歐盟境內(nèi)或?qū)W盟境內(nèi)人員產(chǎn)生影響的實體。這意味著開發(fā)和部署人工智能系統(tǒng)的組織將不得不遵守歐盟人工智其次,該法案采取了基于風(fēng)險的監(jiān)管思路,基于對功能和用途等要素的綜合風(fēng)險分析,將AI系統(tǒng)的風(fēng)險等級分為不可接受風(fēng)險、高風(fēng)險、有限風(fēng)險和低風(fēng)險等四類,等級越高的應(yīng)用場景的;第二,高風(fēng)險的AI系統(tǒng)應(yīng)用場景主要包括關(guān)鍵基礎(chǔ)設(shè)施、影響個人教育或職業(yè)成就的教育23ProposalforaRegulationoftheEuropeanParliamentandoftheCouncillayingdownharmonizedrulesonartificialintelligence(ArtificialIntelligenceAct)andamendingcertainUnionlegislativeActs,EuropeanCommission,p3.人工智能時代的算法治理報告2022或職業(yè)培訓(xùn)、產(chǎn)品的安全組件、就業(yè)和員工管理、基本的私人和公共服務(wù)、執(zhí)法用例、移民和邊防管理、公正和民主程序、監(jiān)控系統(tǒng)等,在部署和使用前,需履行風(fēng)險評估、數(shù)據(jù)質(zhì)量管理、運行記錄可追溯、必要的人類監(jiān)督等嚴(yán)格義務(wù)和責(zé)任;第三,有限風(fēng)險的AI系統(tǒng)主要是聊—定的自主權(quán);第四,最低風(fēng)險的AI系統(tǒng),包括電子游戲、垃圾郵件識別等多數(shù)AI應(yīng)用,不做利實施。在成員國層面,要求各成員國指定—個或多個相應(yīng)機構(gòu)來監(jiān)督規(guī)則的實施。監(jiān)管機構(gòu)重點關(guān)注高風(fēng)險AI系統(tǒng)的監(jiān)管,要求高風(fēng)險AI系統(tǒng)必須在滿足對應(yīng)的強制性要求以及事前評估合格的前提下才能在歐洲上市。監(jiān)管機構(gòu)對違反法案規(guī)定的行為提出了原則性的處罰規(guī)相較而言,美國和英國為了促進人工智能技術(shù)的創(chuàng)新與發(fā)展,都采取了與歐盟不同的監(jiān)管模式。美國采取的是較為靈活、分散和多元的監(jiān)管模式。強調(diào)盡量少地采用“硬性”監(jiān)管,鼓勵域性治理實踐。相對應(yīng)的美國政府治理主體也較為多元。不同監(jiān)管機構(gòu)在自己的業(yè)務(wù)管轄范圍22年7月,英國提出建立促進信任,最終推動整個人工智能產(chǎn)業(yè)經(jīng)濟的發(fā)展。25首先,該模式主要根據(jù)人工智能應(yīng)用及其在能問題,避免為技術(shù)創(chuàng)新設(shè)置不必要的障礙。歐美國家都很重視監(jiān)管社會治理和公共服務(wù)中的算法應(yīng)用。因為政府部門在社會治理和公共服https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:52021PC0206&from=EN25.uk/government/publications/establishing-a-pro-innovation-approach-to-regulating-ai/establishing-a-pro-innovation-approach-to-regulating-ai-policy-statement#a-new-pro-innovation-approach務(wù)中應(yīng)用算法,是把對人的價值判斷委托給算法,通常會引發(fā)資源分配的公平問題、公共權(quán)力運行的透明問題以及社會決策和隱私侵犯等問題。政府應(yīng)用算法應(yīng)更加透明和負(fù)責(zé),確保不濫外后果等。這些對于保護公民權(quán)利至關(guān)重要。為了使公民能夠更加信任政府以及政府在社會治理和公共服務(wù)中應(yīng)用的算法,歐美各國針對該、算法審計等治理監(jiān)管舉措。首先是在算法的透明度要求、影響評估方面。早在2017年,美國紐約市便已通過了算法透明法案,并設(shè)立了“算法問責(zé)特別工作組”(AlgorithmicAccountabilityTaskFore)。該工作組專門負(fù)責(zé)監(jiān)督市政府使用算法的情況,其監(jiān)督場景包括刑事調(diào)查、教師評估、消防、公共住房等。2019年,歐盟發(fā)布《算法責(zé)任與透明治理框架》,提出算法透明治理的框架,并且tion關(guān)法律框架,并正在建立公共算法登記冊等。26通過這些工作,法國公民可以開始了解政府如何使用算法以及如何做出可能影響他們的決策,從而為加強算法問責(zé)制奠定基礎(chǔ)。2021年2月,Etalab發(fā)布了—份建立登記冊的指導(dǎo)文件,確定了算法需要登記的四類信息:負(fù)責(zé)機構(gòu);在決策過程中所起的作用;算法決策影響;算法技術(shù)原理及運行情況。其次,針對政府在社會治理和公共服務(wù)中應(yīng)用算法開展的算法審計工作,這里以荷蘭為代表。荷蘭審計法院2021年1月26日發(fā)布了《理解算法》(Understandingalgorithms)審計報告。27荷蘭審計法院開發(fā)了算法審計框架的工具,該算法審計框架包含治理和問責(zé)制、模型和府各部門在行政工作中應(yīng)用的預(yù)測性算法(PredictiveAlgorithm)和規(guī)范性算法(PrescriptiveAlgorithm),審計對象共有86個算法。荷蘭審計法院的算法審計結(jié)果是:第—,政府在社會治理和公共服務(wù)中應(yīng)用的算法是以政府利26/algorithm-accountability-what-government-can-do-right-now/27https://english.rekenkamer.nl/publications/reports/2021/01/26/understanding-algorithms人工智能時代的算法治理報告2022止破壞活動、間諜活動和犯罪活動等發(fā)生。在AI時代,加強對作為算法哺育原料和優(yōu)化動力的數(shù)據(jù)的治理,強化算法應(yīng)用中的個人數(shù)據(jù)保護,降低數(shù)據(jù)輸入階段的隱私風(fēng)險,是算法治理的源頭。在治理算法的數(shù)據(jù)輸入隱私風(fēng)險方增加透明度和保障用戶選擇權(quán)方面,既要求讓用戶知情個人數(shù)據(jù)如何被處理,又需保證用戶的退出權(quán)利。如2021年《數(shù)據(jù)法案》(該法案又被稱為《數(shù)據(jù)和算法透明度協(xié)議法案》)要求使用算法操縱內(nèi)容展示且擁有3000萬以上用戶的互聯(lián)網(wǎng)平臺在收集、共享、轉(zhuǎn)讓用戶習(xí)慣、戶的撤回同意或要求刪除數(shù)據(jù)的權(quán)利。28《算法正義和在線平臺透明度法案》則禁止在線平臺在露算法處理收集或創(chuàng)建的個人信息種類、收集或創(chuàng)建方式、處理方式、對不同種類個人信息優(yōu)先排序或分配權(quán)重的方法。29而《過濾氣泡透明度法案》則對平臺的算法推薦進行規(guī)制,要求大型互聯(lián)網(wǎng)平臺在使用非用戶主動提供的用戶網(wǎng)絡(luò)搜索和測覽記錄、地理位置、身體活動數(shù)據(jù)、設(shè)備交互等特定數(shù)據(jù)進行個性化內(nèi)容推薦時,顯著告知用戶并需提供切換非個性化推薦算Algorithms)和《你的公司運用人工智能:以真實、公正、平等為目標(biāo)》(AimingforTruth,28DataandAlgorithmTransparencyAgreementAct,/bill/117th-congress/senate-bill/1477/text?r=2&s=4.29AlgorithmicJusticeandOnlinePlatformTransparencyAct,/bill/117th-congress/senate-bill/1896/text.30FilterBubbleTransparencyAct,/bill/117th-congress/house-bill/5921?q=%7B%22search%22%3A%5B%22%5Cu00a0Filter%5Cu00a0Bubble%5Cu00a0Transparency%5Cu00a0Act%22%2C%22%5Cu00a0Filter%5Cu00a0Bubble%5Cu00a0Transparency%5C-u00a0Act%22%5D%7D&s=4&r=1.”,《華東政法大學(xué)學(xué)報》,2022年第1期。保護法GDPR通過賦予用戶被遺忘權(quán)、可攜權(quán)等新型權(quán)利加強用戶對個人數(shù)據(jù)的控制,以減輕自動化決策等算法應(yīng)用帶來的負(fù)面影響。《數(shù)字市場法案》則對處于優(yōu)勢地位的“守門人”(gatekeeper)的數(shù)據(jù)獲取與利用進行進—步限制,要求未經(jīng)用戶同意不得將從核心平臺服務(wù)獲得的個人數(shù)據(jù)同從自身其他服務(wù)獲得的數(shù)據(jù)合并,防止侵害消費者隱私。同時,其要求未經(jīng)用戶明確同意不得出于商業(yè)目的合并個人數(shù)據(jù)以供定向廣告和微定向廣告使用,未成年人個人數(shù)據(jù)不得用于直接營銷、用戶畫像和定向廣告等商業(yè)用途,對算法應(yīng)用的數(shù)到黑箱下大規(guī)模數(shù)據(jù)處理所引發(fā)的用戶隱私焦慮,并且不能以此否認(rèn)數(shù)據(jù)保護對促進市場競爭的正向作用。英國競爭和市場管理局、信息專員辦公室在《數(shù)字市場中的數(shù)據(jù)競爭和個人數(shù)據(jù)保護:CMA和ICO聯(lián)合聲明》中指出,數(shù)據(jù)保護和競爭具有強大的協(xié)同作用,強化用戶隱私和外在算法自動化決策應(yīng)用領(lǐng)域的治理和監(jiān)管上,呈現(xiàn)出密集立法的趨勢。這是由于歷史數(shù)據(jù)的偏差、設(shè)計者嵌入的偏見、或者技術(shù)的不完善等原因,算法經(jīng)常做出錯誤的、歧視性的決策。同時,算法不公開、不接受質(zhì)詢、不提供解釋、不進行救濟、決策不透明等原因使得錯誤美國和英國等出臺了—系列立法要求提升算法的透明度、開展自動化決策影響評估。32https://www.europarl.europa.eu/news/en/press-room/20211118IPR17636/digital-markets-act-ending-unfair-practices-of-big-online-platforms。33Competitionanddataprotectionindigitalmarkets:ajointstatementbetweentheCMAandtheICO,.uk/government/publications/cma-ico-joint-statement-on-competition-and-data-protection-law.首先,以上這些算法自動化決策立法主要回應(yīng)和解決算法偏見、算法錯誤等問題。如AEDTLaw并提供公開摘要,在業(yè)在開發(fā)和使用算法自動化決策系統(tǒng)中有持續(xù)的偏誤測試流程。英國框架要求進行算法測試以后果,為所有公民提供公平的服務(wù)。以及適用的數(shù)據(jù)保留政策應(yīng)當(dāng)予以公開。英國框架要求幫助用戶和公民了解算法如何影響他最后,算法自動化決策立法對問責(zé)、算法影響評估等做出要求。加州《自動化決策系統(tǒng)問責(zé)法》要求相關(guān)企業(yè)每年都需要向加州商業(yè)監(jiān)督部提交報告,報告需要總結(jié)其使用算法自動化決則要求明確責(zé)任人,并且建構(gòu)面向未來的持續(xù)性監(jiān)督。權(quán)益歐美在勞動權(quán)益保護中強調(diào)對算法的監(jiān)管,主要分為兩個層面的問題:—方面是零工經(jīng)濟中,2021年2月歐盟委員會就改善零工經(jīng)濟工人權(quán)益向社會開展公眾硅商,硅商的7個可能改善方向之—就是加強平臺企業(yè)的算法治理。Uber隨后表態(tài)將與政策制定者和社會團體就該議題進34/new-york-city-enacts-law-restricting-use-of-artificial-intelligence-in-employment-decisions/35/2021-artificial-intelligence-and-automated-systems-annual-legal-review/#_ftn12136.uk/government/publications/ethics-transparency-and-accountability-framework-for-automated-decision-人工智能時代的算法治理報告2022局性和控制權(quán)、透明和公平的收入、獲得福利和保護的機會,以及有意義的代表權(quán)?!?72021、260歐元的罰款,因為它們使用算法對騎手進行自動化決策、分析和分配訂單時存在透明性和公平性問題,違反了GDPR第5、22條的相關(guān)規(guī)定。意大利數(shù)據(jù)保護機構(gòu)認(rèn)為:“水平則被排除在工作機會之外,這是歧視性的。而且平臺沒有向騎手充分告知算法的運作情況,也無法保證算法評估騎手的結(jié)果正確性,也沒有提供人工干預(yù)審查、個人質(zhì)疑和申訴的機會,這些都有違GDPR的相關(guān)規(guī)tionsinplatformwork),要求平臺增加使用算法的透明度,確保平臺工人對其工作情況的監(jiān)此外,歐美針對公司應(yīng)用算法進行人力資源決策進行監(jiān)管。歐盟在實施“透明和可預(yù)測的工作策結(jié)果的義務(wù)、負(fù)有監(jiān)督和審查影響員工的自動決策或監(jiān)控算法的義務(wù)。同時,歐盟在《人工智能法案》中將用于就業(yè)和人力資源領(lǐng)域的算法系統(tǒng)認(rèn)定為是高風(fēng)險的,企業(yè)在使用該類算法AB案,該法案針對亞馬遜等大型倉儲企業(yè)而制定的。此類倉儲企業(yè)受到坪擊的主要原因是其廣泛使用自動化軟件和37/technology/eu-seeks-views-gig-workers-rights-ahead-possible-law-2021-02-24/38https://www.bankinfosecurity.eu/food-delivery-services-face-gdpr-fines-over-ai-algorithms-a-1721239https://ec.europa.eu/commission/presscorner/detail/en/ip_21_660540/california-cracks-down-on-quotas-for-warehouse-employees-going-into-202244人工智能時代的算法治理報告2022局業(yè)在算法倫理治理上進行了長期的探索,從過去積極探索算法倫理治理的落地實踐并取得階段性成效。從2016年開始,人工智能倫理治理經(jīng)歷了原則大爆炸、共識尋求和邁向?qū)嵺`這三個階段。412019年,歐盟人工智能高級別專家組發(fā)布《可信人工智能倫理準(zhǔn)則》引發(fā)廣泛關(guān)注。OECD比亞、哥斯達(dá)黎加、秘魯和羅馬尼亞在內(nèi)的非成員國都簽署了該原則。該原則在2019年6月的20國集團(G20)會議上得到全球性協(xié)議--《人工智能倫理問題建議書》(以下簡稱“《建議書》”)。《建議書》歷經(jīng)3年多的時間,由來自世界各地的數(shù)百名《建議書》的出臺標(biāo)志著全球算法倫理治理已經(jīng)達(dá)成倫理共識,正在走向倫理治理實踐。聯(lián)合國教科文組織總干事阿祖萊認(rèn)為:“世界需要為人工智能制定規(guī)則以造福人類。《人工智能倫規(guī)范人工智能發(fā)展和應(yīng)用提供實踐指導(dǎo)和工具基礎(chǔ)?!督ㄗh書》的核心是價值觀、倫理原則及相關(guān)的政策建議、監(jiān)測與評估。在價值觀方面,《建多樣性和包容性,以及在和平、公正與互聯(lián)的社會中共生等4部分進行了闡述。倫理原則方面,《建議書》明確了相稱性和不損害、安全和安保、公平和非歧視、可持續(xù)性、隱私權(quán)和數(shù)據(jù)保護、人類的監(jiān)督和決定、透明度和可解釋性、責(zé)任和問責(zé)、認(rèn)識和素養(yǎng)等9大原則。42https://en./artificial-intelligence/ethics人工智能時代的算法治理報告2022倫理影響評估意在幫助開發(fā)和部署人工智能系統(tǒng)的國家和公司評估這些系統(tǒng)對個人、社會及環(huán)的影響;準(zhǔn)備程度評估方法則幫助成員國評估本國在法律和技術(shù)基礎(chǔ)設(shè)施方面的情況。這—工具將有助于提高各國的機構(gòu)能力,并建議采取適當(dāng)措施,以確保倫理規(guī)范在實踐中得到遵僅需要多元主體的共同合作、協(xié)商,還需借助相應(yīng)的制度建設(shè)、倫理工具、倫理認(rèn)證培訓(xùn)等多目前,我國政策和立法持續(xù)提出明確的算法倫理治理要求,算法倫理治理呈現(xiàn)出由倫理規(guī)范原二,算法倫理問題可能會發(fā)酵演變成社會問題或法律問題,這就需要政府部門在獲得廣泛價值府工作機構(gòu)或行業(yè)機構(gòu)。如2019年英國建立數(shù)據(jù)倫理與創(chuàng)新中心,對算法應(yīng)用進行管理,就算法倫理治理隸屬于科技倫理治理范疇內(nèi),相應(yīng)的配套政策、法律法規(guī)等也在逐步建立完善之中,這將使國家科技倫理治理體系的建立有了政策保障,使科技倫理治理工作有法可依。人工智能倫理規(guī)范》于2021年9月被正式推出。該規(guī)范旨在將倫理道德融入人工智能全生命周期,為從事人工智能相關(guān)活動的自然人、法人和非法人組織等提供倫理指引,不僅提出了增進人類福扯、促進公平公正、保護隱私安全、確??煽乜尚拧娀?zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)等6項基本倫理要求,還提出覆蓋人工智能管理、研發(fā)、供應(yīng)、使用等生命周期的18項具體倫理要求。2021年12月通過修訂的《科學(xué)技術(shù)進步法》規(guī)定了企業(yè)、事業(yè)單位等主體需要“履行2022年3月中共中央辦公廳、國務(wù)院辦公廳發(fā)布的《關(guān)于加強科技倫理治理的意見》(以下簡件,該《意見》的發(fā)布是我國科南,要求“研究內(nèi)容涉及科技倫理敏感領(lǐng)域”的人工智能科技企業(yè)必須設(shè)立科技倫理(審查)委員會。按照《意見》要求,人工智能科技企業(yè)需要以科技倫理(審查)委員會為機構(gòu)依托,對人工智能研發(fā)和應(yīng)用中的倫理風(fēng)險和倫理問題,通過培訓(xùn)教育等途徑培養(yǎng)和提升研發(fā)人員的做到企業(yè)和行業(yè)自律。第二、算法倫理治理的法治化方面,2022年1月《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《規(guī)定》)的正式出臺具有標(biāo)志性的意義。43這不僅是中國第—部聚焦算法治理的部門規(guī)章,也是全球第—部系統(tǒng)性規(guī)制算法的法律文件。業(yè)內(nèi)人士也以此為標(biāo)志將2022年稱為中國《規(guī)定》具有豐富的倫理意蘊,它有7大基本原則:遵守法律法規(guī),尊重社會公德和倫理,遵守商業(yè)道德和職業(yè)道德,遵循公正公平、公開透明、科學(xué)合理和誠實信用的原則?!兑?guī)定》從三個主要維度進行算法治理:(1)樹立正確的算法導(dǎo)向,逃揚社會主義核心價值觀,堅持主流價43國家互聯(lián)網(wǎng)信息辦公室.互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定EB/OL.2022-01-04/2022-03-05./2022-01/04/c_1642894606364259.htm.人工智能時代的算法治理報告2022監(jiān)管機構(gòu)和監(jiān)管模式,配套相應(yīng)的監(jiān)管手段和違規(guī)懲罰機制。人工智能倫理委員會機制不僅是企業(yè)自律的重要體現(xiàn),也是落實算法倫理治理的重要制度保理治理的實踐創(chuàng)新。名稱介1)負(fù)責(zé)任AI辦公室負(fù)責(zé)制定內(nèi)部的AI倫理準(zhǔn)則、審查敏感應(yīng)用案例等;2)AI倫理委員會下七個工作組,對特定AI倫理問題進行研究、反思、建議、主動制定內(nèi)部政策。隊旨在落實其AI原則的三層治理架構(gòu),包括AI原則審查委員會,對谷歌的AI產(chǎn)品和AI交易等進行倫理評估,以落實其AI原則。負(fù)責(zé)倫理原則的落地實施,建設(shè)企業(yè)負(fù)責(zé)任、可信任的AI倫理文化,支持企業(yè)倫理咨詢決策和產(chǎn)品的倫理審查。組在公司層面推進負(fù)責(zé)任AI,研究機器學(xué)習(xí)決策的影響、完善Twitter信機器學(xué)習(xí)方案等。其獨立顧問小組包含多名不同背景與學(xué)科的外國專家,就AI倫理問題提供反債與指導(dǎo)。Salesforce技術(shù)倫理辦公室下設(shè)倫理咨詢委員會,致力于建立合乎倫理的產(chǎn)品政策、框每個人的基本權(quán)益。推進人工智能倫理研究,提供高效、可擴展和透明智能的解會落實倫理原則,開展人工智能倫理風(fēng)險控制、人工智能倫理研究和人工智能倫理培訓(xùn)等三個方面工作。企業(yè)倫理原則、指導(dǎo)綱領(lǐng)等制度性建設(shè),建立員工道德行為規(guī)范、人工智能應(yīng)用準(zhǔn)則等。智能研發(fā)的規(guī)則規(guī)范巴巴人工智能治理與可持續(xù)發(fā)展實驗室、科技倫理研究算法公平性與可解釋性、可信可靠AI等技術(shù)性解決方實驗室格靈深瞳人工智能倫理審核能技術(shù)的倫理規(guī)范審查表2:國內(nèi)外科技企業(yè)AI倫理委員會建設(shè)情況人工智能時代的算法治理報告2022企業(yè)AI倫理委員會具有較高級別,統(tǒng)籌企業(yè)的AI治理工作。倫理委員會的成員構(gòu)成具有多元化、跨學(xué)科、跨領(lǐng)域的特點,主要由倫理專家、技術(shù)專家、法律專家以及特定主題領(lǐng)域?qū)<覙?gòu)成,積極吸納外部專家參與。企業(yè)AI倫理委員會的職能主要有三個方面: (2)倫理評估與審查。倫理委員會依據(jù)現(xiàn)有倫理原則、政策法規(guī),對技術(shù)研發(fā)和產(chǎn)品應(yīng)用進行teelutions (3)倫理教育與文化建設(shè)。這是倫理委員會的重要職能,谷歌AI倫理治理的—大特色是專為員AI風(fēng)險管理是算法倫理治理理念和技術(shù)的前沿性探索,旨在幫助AI的設(shè)計者、開發(fā)者、使用者以及評估者更好地管理AI生命周期中可能出現(xiàn)的風(fēng)險。2021年12月,美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)發(fā)布《人工智能風(fēng)險管理框架概念文件》(AIRiskManagementFrameworkAII工智能全生命周期的角色和責(zé)任的共同理解打好基礎(chǔ),旨在成為映射、測量和管理與人工智能責(zé)設(shè)計或開發(fā)人工智能系統(tǒng)的人群、負(fù)責(zé)使用或部署人工智能系統(tǒng)的人群、負(fù)責(zé)人工智能系統(tǒng)評估或治理的人群、受到人工智能系統(tǒng)產(chǎn)生或放大的風(fēng)險影響(傷害)的人們。其次,在識別和管理與AI系統(tǒng)相關(guān)風(fēng)險的綜合方法中,NIST使用了三類特征分類法:技術(shù)特征、社會技術(shù)特征和指導(dǎo)原則:1)技術(shù)特性是指AI系統(tǒng)設(shè)計人員和開發(fā)人員直接控制的因素,可以使用評估標(biāo)準(zhǔn)來衡量,例如準(zhǔn)確性、可靠性和彈性;2)社會技術(shù)特征是指人工智能見;3)指導(dǎo)原則是指更廣泛的社會規(guī)范和價值觀,表明社會優(yōu)先事項,例如公平、問責(zé)制和最后,人工智能風(fēng)險管理框架包含核心層(Core)、概況層(Profiles)以及實施層 (Implementation)等三個層級:1)“核心層”負(fù)責(zé)提供—個活動和結(jié)果的集合來管理人工智能風(fēng)險的組織級對話;2)概況層是管理特定應(yīng)用場景中人工智能風(fēng)險的技術(shù)或非技術(shù)指人工智能相關(guān)的活動,產(chǎn)出最滿足組織價值、使命、商業(yè)需求和風(fēng)險的結(jié)果;3)實施層負(fù)責(zé)長的工程師等。44AIRiskManagementFrameworkConceptPaper./news-events/news/2021/12/nist-seeks-comments-concept-paper-ai-risk-man-nagement-framework人工智能時代的算法治理報告2022預(yù)設(shè)計測試與評估設(shè)計與開發(fā)預(yù)設(shè)計測試與評估2分析、量化和追蹤4推行風(fēng)險管理文化移或接受確定應(yīng)用場景,列出與該場景相關(guān)的開發(fā)圖2:AI系統(tǒng)生命周期風(fēng)險管理對符合標(biāo)準(zhǔn)的人工智能產(chǎn)品、服務(wù)或系統(tǒng)進行鑒定認(rèn)證,作為確保AI合乎倫理的有效嘗試已經(jīng)獲得了越來越多的認(rèn)可。同時,目前國內(nèi)外也有越來越多的AI倫理認(rèn)證實踐。ECertifAIEd從透明度、問責(zé)制、算法偏差和隱私等四個方面建立認(rèn)證標(biāo)準(zhǔn),確保通過認(rèn)證的產(chǎn)品、服務(wù)或系統(tǒng)是符合相關(guān)的倫理標(biāo)準(zhǔn)的。這樣積極的做法,能有效地獲得社會公眾對AI系統(tǒng)的信任。其中:1)透明度標(biāo)準(zhǔn),涉及系統(tǒng)設(shè)計中嵌入的價值,以及開發(fā)和運營選擇的公開性和披露舉措;2)問責(zé)制標(biāo)準(zhǔn),表明雖然AI系統(tǒng)具有自主性和學(xué)習(xí)能力是人或企業(yè)設(shè)計的算法和計算過程的結(jié)果,但是人或企業(yè)仍然對其結(jié)果負(fù)有責(zé)任;3)算法偏差標(biāo)準(zhǔn),防止AI系統(tǒng)產(chǎn)生不公平結(jié)果的系統(tǒng)錯誤和可重復(fù)的不良行為;4)隱私標(biāo)準(zhǔn),旨在尊重個人、群體或社區(qū)的私人生活領(lǐng)域和公共身份,從而維護其尊嚴(yán)45。2021年11月,維也納市智慧城市公共其次,各國也在不斷探索推進AI倫理標(biāo)準(zhǔn)認(rèn)證工作。2021年12月英國數(shù)據(jù)倫理與創(chuàng)新中心發(fā)布的《建立有效的人工智能保障生態(tài)系統(tǒng)的路線圖》也明確了AI倫理認(rèn)證服務(wù),以滿足人們對人工智能系統(tǒng)的信任需求。英國AI倫理認(rèn)證體系借鑒會計認(rèn)證業(yè)務(wù)的體系和流程,包含了5個指定要素:1)包含責(zé)任方、用戶和第三方認(rèn)證方的三方關(guān)系;2)認(rèn)證主題和范圍;3)合理證標(biāo)準(zhǔn);4)充分和適當(dāng)?shù)恼J(rèn)證憑據(jù);5)認(rèn)證意見。英國AI倫理認(rèn)證從AI系統(tǒng)的魯棒性、準(zhǔn)確性、偏見和公平性、社會和人權(quán)影響、數(shù)據(jù)質(zhì)量、預(yù)期用途、管理流程和控制等多個維度我國的AI倫理認(rèn)證也在持續(xù)探索中。中國信息通信研究院在2021年研發(fā)推出了產(chǎn)品服務(wù)評、應(yīng)用成熟度評測和可信風(fēng)險評估三位—體的“可信AI評測”體系,測評認(rèn)證分為產(chǎn)品服務(wù)測試、應(yīng)用成熟度評測和可信風(fēng)險評估三類,累計為73家企業(yè)提供了178次測試服務(wù)。中國人在AI應(yīng)用的具體行業(yè)中也有—些AI倫理認(rèn)證的創(chuàng)新探索。2022年3月,北京國家金融科技認(rèn)證中心認(rèn)證啟動“人工智能金融應(yīng)用倫理影響評估”試點工作。47該AI倫理認(rèn)證貫徹“以人為IEEECertifAIEdTheMarkofAIEthicsEBOL8./ieeecertifaied.html.46/news/home/20211115005200/en/City-of-Vienna-Earns-IEEE-AI-Ethics-Certification-Mark-Reinforcing-Commitment-to-Digital-Humanism-Strategy47/s?id=1727348997933531659&wfr=spider&for=pc人工智能時代的算法治理報告2022本,科技向善、權(quán)益保護、責(zé)任擔(dān)當(dāng)”的倫理理念,聚焦“算法濫用、數(shù)據(jù)鴻溝、隱私保護”等挑戰(zhàn),研制人工智能金融應(yīng)用倫理影響評估模型與指標(biāo)體系,形成包含“倫理管理能力、相稱性和不損害、數(shù)據(jù)安全和個人隱私保護、安全保障、可持續(xù)、公平和非歧視、透明可解釋、人類監(jiān)督與決定、責(zé)任與問責(zé)”九類評估領(lǐng)域的框架,探索推出人工智能金融應(yīng)用倫理影響評估服務(wù)。同時,人工智能金融應(yīng)用倫理影響評估劃分了“基礎(chǔ)級、可控級、可信級”三個等級,這是對機構(gòu)人工智能道德倫理治理能力取得金融消費者以及社會信任的評級。算法倫理賞金機制開創(chuàng)了算法歧視問題的眾包改進模式。過去國外科技企業(yè)舉辦“Bug賞金挑戰(zhàn)賽”,以吸引黑客們來幫助企業(yè)發(fā)現(xiàn)軟件或技術(shù)基礎(chǔ)設(shè)施中的Bug?,F(xiàn)在這種成熟的做法被延用來尋找算法倫理的歧視“Bug”,繼而開創(chuàng)了算法倫理賞金機制。2021年7月,推特效仿漏洞賞金機制推出了—項算法偏見賞金挑戰(zhàn),這—主動性的、集體性地尋找算法偏見舉措為業(yè)內(nèi)首創(chuàng)。推特希望借助挑戰(zhàn)賽來發(fā)現(xiàn)他們自己無法發(fā)現(xiàn)或識別的算法偏見等潛在倫理問題。Twitter機器學(xué)習(xí)倫理、透明度與責(zé)任小組的主管拉曼·喬杜里(RummanChowdhury)認(rèn)為:“發(fā)現(xiàn)機器學(xué)習(xí)模型中的歧視是很困難的。但是歧視—旦觸及用戶,就會產(chǎn)生不可預(yù)估的道德傷害?!?8推特在比賽中提供基于機器學(xué)習(xí)開發(fā)的自動圖像裁剪算法的代碼,參賽者去探索并清晰地說明該算法中可能存在的偏見,最后提交改進方案。參賽者需要提交—份描述性文本來解釋發(fā)現(xiàn)的算法偏見及其危害性、重要性等,還需基于機器學(xué)習(xí)開發(fā)的在這次賞金競賽中,瑞士聯(lián)邦理工學(xué)院的學(xué)生博格丹·庫利尼奇(BogdanKulynych)獲得了最高00美金。他從Twitter發(fā)布賞金到提交方案被評為獲勝者,僅用了八天時間。博格丹·庫利尼奇使用人臉生成工具生成具有不同特征的人臉,然后使用推特的圖片裁剪算法進行自動裁剪并觀察統(tǒng)計結(jié)果。他使用的人臉生成工具可以生成幾乎相同但年齡、性別和膚色不同的人臉照48/engineering/en_us/topics/insights/2021/algorithmic-bias-bounty-challenge??ㄋ_特(PeterCassat)的觀點來說,現(xiàn)在企業(yè)通過數(shù)字化轉(zhuǎn)型,將以前的傳統(tǒng)流程和系統(tǒng)轉(zhuǎn)方法都是有價值的51。從網(wǎng)絡(luò)安全漏洞賞金到算法偏見賞金,可以發(fā)現(xiàn)這種眾包模式快速解決問題的優(yōu)勢。在企業(yè)的算法倫理治理的落地實施中,應(yīng)充分發(fā)揮眾包模式的優(yōu)勢,建立算法倫理賞金機制,確保每個Forrester主要科技公司將在2022年開r49/2021/8/10/22617972/twitter-photo-cropping-algorithm-ai-bias-bug-bounty-results50WhyMicrosoftandTwitterareusingbugbountiestofixA.I.(2021),from/2021/08/10/why-microsoft-and-twitter-are-turning-to-bug-bounties-to-fix-their-a-i/51/cassat-builtin-algorithmic-bias-bounties/5人工智能時代的算法治理報告2022局可信AI正逐步成為行業(yè)規(guī)范化、技術(shù)商業(yè)化的關(guān)鍵助推器,其核心原則是讓AI應(yīng)用滿足公平、AI倫理和相關(guān)法律法規(guī)等要求—脈相承,均將以人為本作為其本質(zhì)要求。以中國、美國、歐盟為代表的AI領(lǐng)頭羊均把可信人工智能放在了其AI倫理和治理的核心位置,發(fā)展可信人工智能也AIAI發(fā)揮用。圖3:可信AI研究框架黑箱”問題也更加嚴(yán)重,使用者甚至是研發(fā)者都無法獲知算法模型的結(jié)果與特征之間的關(guān)系。的行業(yè)實踐。2021年,學(xué)界、產(chǎn)業(yè)界都在積極探索算法可解釋性的技術(shù)路徑和實踐路徑。目前主要有兩大主流探索方向:人工智能時代的算法治理報告2022局型的理解和信任。譬如,谷歌的模型卡片機制(modelcards),對模型的輸入、輸出、模型架構(gòu)、性能、局限性等進行描述,旨在以簡明、易懂的方式讓人們看懂并理解算法的運作過程。國內(nèi)互聯(lián)網(wǎng)行業(yè)也開始采取類似做法,促進算法模型的透明度。類似的是Facebook開發(fā)的系統(tǒng)卡(AISystemCards),它是—個機器學(xué)習(xí)算法的簡介文檔,對算法的訓(xùn)練數(shù)據(jù)集、運行環(huán)境、影響評估等信息進行披露,使技術(shù)專家和普通用戶都能了解其AI系統(tǒng)的意圖、影響任何問題。這種方法可以幫助理解和減輕算法系統(tǒng)的潛在危害或安全問題,并促進算法的透明算責(zé)制度。第二,打造可解釋性工具,推動構(gòu)建可解釋的AI模型(XAI)。這方面主要是針對可解釋性工具、可解釋模型方面的研究,從技術(shù)層面解決可解釋性的問題。隨著可信AI和AI監(jiān)管日益得到重視,行業(yè)更加重視可解釋AI研究,尋求解決AI的可解釋性問題的技術(shù)方案。越來越多的可解的泛線性模型、集成學(xué)習(xí)模型、圖像識別模型以及自然語言處理模型等。近年來頭部的人工智 (Interpretable)方法與可解釋(Explainable)方法,為實際面臨的可解釋性問題的解決提供52/blog/facebooks-five-pillars-of-responsible-ai/53/doi/10.1145/3430984.3430987年份年份可解釋性工具表3:常見的可解釋工具(來源:騰訊研究院《可解釋AI發(fā)展報告2022》)國內(nèi)科技企業(yè)主要在算法應(yīng)用階段的可解釋性上做了大量實踐探索。比如,2021年美團公開優(yōu)圖實驗室在可解釋計算機視覺方面做了大量實踐探索:第—是可解釋人臉識別。優(yōu)圖從人臉質(zhì)量分和識別置信度增加人臉識別的可解釋性。目前的人臉識別技術(shù)通常依賴深度學(xué)習(xí),天然存在著可解釋性問題。優(yōu)圖從人臉質(zhì)量分和識別置信度兩個方面為人臉識別技術(shù)增加可解釋者則通過不確定性概率分布來建模人臉特征,為識別判斷提供額外的置信度信息。第二是場景理解AI的可解釋實踐。在基于計算機視覺的場景理解AI應(yīng)用上,優(yōu)圖通過架構(gòu)設(shè)計、訓(xùn)練集清單、備注模塊等模塊化工作,提高AI算法整體上的透明度與可解釋性,進而幫助使用人員更好算法安全是可信AI的重要組成部分。為有效防范算法應(yīng)用帶來的安全風(fēng)險,保障技術(shù)創(chuàng)新應(yīng)用與發(fā)展,提高算法安全的技術(shù)能力和管理能力顯得越來越重要。早在2020年,Gartner就將AI安全列入了十大戰(zhàn)略技術(shù)趨勢,并指出30%的網(wǎng)絡(luò)攻擊利用訓(xùn)練數(shù)據(jù)投毒、AI模型竊取、對I環(huán)節(jié)都存在被攻擊的風(fēng)險點。在工業(yè)、農(nóng)業(yè)、醫(yī)療、交通等各行業(yè)與AI深度融合的今天,應(yīng)確重后果。54https://emtemp.gcom.cloud/ngw/globalassets/cn/information-technology/documents/top-tech-trends-2020-cn.pdf人工智能時代的算法治理報告2022局目前,算法安全主要集中在兩個層面。首先是對算法系統(tǒng)本身的保護,保護人工智能訓(xùn)練數(shù)IAI模型后門攻擊”、“數(shù)據(jù)木馬隱藏攻擊”等。然后通過模擬實戰(zhàn)中的黑客攻擊路徑,從而針對性地進行防御建設(shè),如黑盒對抗防御、對抗訓(xùn)練以及面向?qū)嶋H部署階段的神經(jīng)網(wǎng)絡(luò)后門植入技術(shù)等,并且開發(fā)上線了后門基準(zhǔn)平臺(BackdoorBench)。2021年4月微軟推出了開源的AI風(fēng)險評估工具Counterfit,該工具旨在幫助開發(fā)人員測試AI和機器學(xué)習(xí)系統(tǒng)的安全性,以確保其圖4:AI系統(tǒng)不同階段安全問題框架其次是檢測和防范算法惡意使用引發(fā)的安全風(fēng)險。近年來,深度偽造、“AI換臉”等問題帶來了嚴(yán)重的安全風(fēng)險和隱私危機,惡意用上述手段詐騙和污蔑他人的案例屢見不鮮,過去幾年,研究機構(gòu)和企業(yè)嘗試通過研發(fā)更強大的深度偽造檢測算法來應(yīng)對此類問題。2019年,美國研究機構(gòu)推出了FaceForensics++這—深度偽造檢測基準(zhǔn)數(shù)據(jù)集,在這個數(shù)據(jù)集基礎(chǔ)上,檢測算法能夠正確識別被改變的圖像的百分比。針對AI換臉,騰訊安全部門研發(fā)的頸別技術(shù)AntiFakes,可分辨各種技術(shù)合成的“假臉”,讓人們放心感受技術(shù)帶來的全新體驗和便利。AntiFakes基于圖像算法和視覺AI技術(shù),能夠?qū)崿F(xiàn)對圖片或視頻中的人臉真?zhèn)芜M行高效快速地檢測和分析,鑒別圖片中的人臉是否為AI換臉?biāo)惴?、APP(如公平性是可信AI的重要考量,主要是為了使算法決策不再對個人或群體產(chǎn)生歧視或偏見。而實際上,算法歧視是AI領(lǐng)域常見且頻發(fā)的問題,已經(jīng)成為阻礙人工智能發(fā)展的重要問題。建立具加速推進人工智能落地的必要條件。根據(jù)機器學(xué)習(xí)算法生命周期,消除算法偏差可分為預(yù)處理、處理中和后處理三種機制:當(dāng)能夠參與數(shù)據(jù)生成或修改采集到的數(shù)據(jù)時,采用預(yù)處理機制清洗數(shù)據(jù)或使用合成數(shù)據(jù),以消除偏AI有很多的創(chuàng)新發(fā)展和實踐。以人臉識別算法的公平性研究為例,其主要從數(shù)據(jù)和算法兩個方面入手:(1)由于常用的人臉識別數(shù)據(jù)集,如VGGFace2和MS1M等在制作過程中沒有考慮族群、性別等屬性的均衡,故基于此訓(xùn)練得到的模型不可避PT55劉文炎等:《可信機器學(xué)習(xí)的公平性綜述》,《軟件學(xué)報》,2021年第5期,第1404-1426頁。人工智能時代的算法治理報告2022局Balanced等;(2)已有研究表明,即便以均衡的數(shù)據(jù)集訓(xùn)練得到的模型仍存在—定的偏見,其他群體。通過同時訓(xùn)練識別模型和族群屬性估計網(wǎng)絡(luò),從而得到與屬性無關(guān)的人臉識別特族群定義的不—致性。因此,迫切需要—種不依賴于族實驗室的“基于個體FPR—致性的人臉識別—次將群體上的公平性問題拓展到了個體上,通過提高算法在個體層面的誤過率(FPR)—致性,從而顯著提高算法群體的公平性。不同于之前所有的人臉識別公平性研究工作,我們的方,可以方便地結(jié)合常用的人臉識別損失函數(shù)進行模型訓(xùn)練。此外,公平性檢測也是推進算法公平的重要實踐方式?!矫?,研究機構(gòu)推出了基于不同緯性別偏見的基準(zhǔn);結(jié)合Winogender和WinoBias數(shù)據(jù)集創(chuàng)建的WinoMT,是—個衡量機器翻譯中性別偏見的基準(zhǔn)。另—方面,研究機構(gòu)和企業(yè)陸續(xù)推出了公平性測試的算法、工具等。比ToolkitIBM究院開發(fā)的可擴展開源工具包,幫助開發(fā)者在機器學(xué)習(xí)應(yīng)用程序生命周期中,到的不公平問題。隱私保護是大數(shù)據(jù)、人工智能等信息技術(shù)發(fā)展無法回避的議題,也是算法技術(shù)治理和可信AI建在數(shù)據(jù)方面,主要包括差分隱私、合成數(shù)據(jù)、同態(tài)加密(HE)、匿名化等技術(shù)手段。這里以訓(xùn)練中的價值主要包括:1)解決數(shù)據(jù)敏感、數(shù)據(jù)匿乏等問題,在醫(yī)療、金融、保險等領(lǐng)域具可以避免用戶隱私保護問題;2)消除算法歧視,因為合成數(shù)據(jù)可以提升訓(xùn)練數(shù)據(jù)的多樣性,進而打造更公平的AI算法模型;3)應(yīng)對模型訓(xùn)練中的邊緣案例,提升AI算法模型的準(zhǔn)確性和安全性。MIT的研究表明,利用合成數(shù)據(jù)訓(xùn)練AI模型可以達(dá)到與真正數(shù)據(jù)—樣甚至更好的效成數(shù)據(jù)。在算法方面,以隱私計算為主要領(lǐng)域,主要包括了安全多方計算、零知識證明、聯(lián)邦學(xué)習(xí)等。這里以聯(lián)邦學(xué)習(xí)為例進行說明。聯(lián)邦學(xué)習(xí)是隱私計算領(lǐng)域主要推廣和應(yīng)用的方法,是目前隱私計算領(lǐng)域相對最為成熟的技術(shù)路徑。聯(lián)邦學(xué)習(xí)在數(shù)據(jù)在不出本地、各參與方無需共享數(shù)據(jù)的情況下,即可實現(xiàn)聯(lián)合訓(xùn)練AI模型的效果,保護隱私和信息安全,這—方法目前在醫(yī)y技術(shù)實現(xiàn)需要建立在差異化隱私理論之上,通過提供—個衡量隱私保障的框架,以確保模型CSPCAngelPow

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論