版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
人工智能倫理治理標準化指南(2023版)二〇二三年三月目 錄概述 3人工智能倫理概念 3人工智能倫理治理發(fā)展現(xiàn)狀 6國際治理路線存差異,難以推動形成全球共識 6我國發(fā)展與治理并重,積極促成國際治理合力 人工智能倫理準則 122.1概述 12人工智能倫理準則內(nèi)涵 14以人為本(ForHuman) 14可持續(xù)(Sustainability) 15合作(Collaboration) 17隱私(Privacy) 18公平(Fairness) 20共享(Share) 22外部安全(Security) 24內(nèi)部安全(Safety) 26透明(Transparency) 27可問責(Accountability) 29人工智能倫理風險分析 31人工智能倫理風險來源 31人工智能倫理風險分析方法 35人工智能技術(shù)應用和典型場景倫理風險分析 37自動駕駛 38智能媒體 39智能醫(yī)療 40智能電商 41智能教育 42科學智能(AIforScience) 43人工智能倫理治理的技術(shù)解決方案 45人工智能倫理技術(shù)框架 45人工智能倫理技術(shù)實現(xiàn)路徑與治理實踐 47人工智能倫理技術(shù)實現(xiàn)路徑 47人工智能倫理管理實現(xiàn)路徑 51人工智能倫理技術(shù)治理實踐 54人工智能倫理標準化 59人工智能倫理標準化現(xiàn)狀 59國際人工智能倫理標準化 60國內(nèi)人工智能倫理標準化 62人工智能倫理標準體系 64A基礎(chǔ)共性標準 65B治理技術(shù)標準 65C管理標準 66D行業(yè)應用標準 66重點標準研制 67人工智能管理體系 67人工智能風險評估模型 68人工智能隱私保護機器學習技術(shù)要求 68人工智能倫理治理的展望與建議 69細化完善人工智能的倫理準則,力爭凝聚全球各界發(fā)展新共識………………69加速打造多方協(xié)同的治理模式,促進政產(chǎn)學研用治理深度融合………………71逐步強化支撐技術(shù)的實踐水平,跨越準則到可實施技術(shù)的鴻溝………………72發(fā)揮急用先行標準的引領(lǐng)作用,引導產(chǎn)業(yè)健康發(fā)展高質(zhì)量發(fā)展………………74附件1標準體系明細表 76附件2人工智能倫理相關(guān)國際標準清單 77附件3人工智能評估評測工具清單 79--PAGE1---PAGE2-11概述人類社會于20世紀中后期進入信息時代后,信息技術(shù)倫理逐漸引起了廣泛關(guān)注和研究。信息技術(shù)的高速變革發(fā)展,21世紀后人類社會迅速邁向智能時代,隨著人工智能的發(fā)展,越來越多的人工智能賦能應用、智能機器人等人工智能產(chǎn)品走入人類生活11概述現(xiàn)有人工智能技術(shù)路徑依賴大量人類社會數(shù)據(jù),特別是反映了人類社會演化歷程中積累了系統(tǒng)性道德偏見的人類語言數(shù)據(jù)的訓練,這樣的人工智能系統(tǒng)進行的決策將不可避免地做出隱含著道德偏見的選擇。然而,邁向智能時代的過程如此迅速,使得我們在傳統(tǒng)的信息技術(shù)倫理秩序尚未建立完成的情況下,又迫切需要應對更加富有挑戰(zhàn)性的人工智能倫理問題,積極構(gòu)建智能社會的秩序。技術(shù)與倫理正如兩條相互纏繞的通道指引著人工智能的健康發(fā)展,一面展示著人類科技認知的水平,另一面展示著人類道德文明的程度。因此,如何結(jié)合技術(shù)手段和治理體系,合理地對人工智能倫理問題進行限制,也是人工智能領(lǐng)域最值得探討的議題之一。人工智能倫理與數(shù)據(jù)倫理、機器人倫理、信息技術(shù)倫理等應用倫理學分支具有密切的關(guān)系,有其發(fā)展的繼承性和很多的相似之處。對于尚處弱人工智能的當前階段,也很難判定人工智能倫理已經(jīng)從機器人倫理等前沿1概述1概述人工智能倫理治理標準化指南人工智能倫理治理標準化指南研究領(lǐng)域中實現(xiàn)完全分化。站在第四次工業(yè)革命的宏觀角度來看,人工智能作為具有創(chuàng)造性和革命性的新領(lǐng)域,對全社會、全行業(yè)和全技術(shù)都在進行新的賦能,正在產(chǎn)生顛覆性、不可逆的后果,因此人工智能倫理也超越了應用倫理。因此,包括計算元倫理(ComputationalMeta-ethics)創(chuàng)新學科,為人工智能倫理學理論體系的豐富做出不同理論進路的貢獻。隨著人工智能的倫理問題逐漸引起人們的關(guān)注,越來越多的學者投入針對人工智能倫理的研究?;贗EEEXplore的資源(截至2020年),國際社會對人工智能倫理諸多問題的關(guān)切主要集中在如下主題:人工智能的技術(shù)奇點問題、人工智能本身的倫理問題和人工智能對人類社會各領(lǐng)域造成的沖擊與挑戰(zhàn)從而帶來的倫理問題。因此,可以總結(jié)出人工智能倫理內(nèi)涵包含三方面:一是人類在開發(fā)和使用人工智能相關(guān)技術(shù)、產(chǎn)品及系統(tǒng)時的道德準則及行為規(guī)范;二是人工智能體本身所具有的符合倫理準則的道德編程或價值嵌入方法;三是人工智能體通過自我學習推理而形成的倫理規(guī)范。由于目前仍處弱人工智能時代,對于最后一點的討論還為時尚早,從而,基于人工智能技術(shù)的倫理反思和基于倫理的人工智能技術(shù)批判共同構(gòu)成了人工智能倫理的基本進路,也是人工智能倫理體系下的兩大主要知識脈絡。倫理與道德的關(guān)系“倫理”是人類實現(xiàn)個體利益與社會整體利益協(xié)調(diào)過程中,形成的具有廣泛共識的引導社會人際和諧和可持續(xù)發(fā)展的一系列公序良俗,諸如向善、公平、正義等,其內(nèi)涵會根據(jù)研究主體的特性而改變;“道德”則表現(xiàn)為善惡對立的心理意識、原則規(guī)范和行為活動的總和。倫理與科技的關(guān)系科學技術(shù)是人對客觀物質(zhì)世界的運動及其相互關(guān)系和規(guī)律的認識并運用于生產(chǎn)實踐的產(chǎn)物,從一開始就內(nèi)嵌著人類倫理道德的成分。21世紀以--PAGE3---PAGE4-來,科學技術(shù)呈現(xiàn)高度復雜、數(shù)字化、智能化、虛擬性和多系統(tǒng)綜合的特征,技術(shù)后果的影響具有間接性和深遠性?,F(xiàn)代技術(shù)不僅將自然作為干預和改造甚至控制的對象,也把人變成了改造、增強和控制的對象,甚至出現(xiàn)了人機共生等現(xiàn)象。更進一步,人工智能作為一種前沿的科學技術(shù),不僅實現(xiàn)了對人類體力勞動的替代,也在越來越多地代替人類的智力勞動。因此,人工智能倫理將對人類社會現(xiàn)有的倫理體系產(chǎn)生顛覆性影響。倫理、科技倫理、人工智能倫理的關(guān)系如圖1所示,科技倫理是更一般化的人工智能倫理,因此對人工智能的倫理思考需要回歸到科技倫理的分析框架下,確定人工智能倫理反思的出發(fā)點和著眼點。當前人工智能技術(shù)在全球快速研發(fā)與應用,由于人工智能技術(shù)本身特有的不確定性問題,相比傳統(tǒng)信息技術(shù)更加具有倫理反思的必要。另外,科技倫理的反思要在技術(shù)、人、社會、自然等綜合的關(guān)聯(lián)環(huán)境中,針對科技進步的條件、使用技術(shù)達到的目的,實現(xiàn)目的采用的手段和后果,進行評價與治理。圖1人、自然、社會與科技倫理世界各國和地區(qū)在大力推動人工智能技術(shù)突破和產(chǎn)業(yè)發(fā)展的同時,高度重視人工智能的全面健康發(fā)展,并將倫理治理納入其人工智能戰(zhàn)略,相應地推出政策或發(fā)布規(guī)劃、指南與規(guī)范等文件用于建立人工智能倫理保障體系,開展人工智能倫理相關(guān)技術(shù)的管理。在激勵人工智能產(chǎn)業(yè)發(fā)展的同時約束人工智能風險,體現(xiàn)了發(fā)展與治理并重的基本原則。國際治理路線存差異,難以推動形成全球共識國際組織2019年5月,經(jīng)濟合作與發(fā)展組織(OECD)正式發(fā)布《人工智能原則》,該原則給出了人工智能可信賴的五項原則,包括可持續(xù)發(fā)展、以人為本、透明可解釋、魯棒性與信息安全、可問責等,并基于上述五項原則提出了政策建議和國際合作方針。2021年11月25日,聯(lián)合國教科文組織正式發(fā)布《人工智能倫理問題建議書》,該建議書作為全球首個針對人工智能倫理制定的規(guī)范框架,明確規(guī)定了4項價值觀、10項倫理原則以及11項政策建議,其中人工智能倫理原則主要涉及相稱性和不損害、安全和安保、公平和非歧視、可持續(xù)性、隱私權(quán)和數(shù)據(jù)保護、人類的監(jiān)督和決定、透明度和可解釋性、責任和問責、認識和素養(yǎng)、多利益攸關(guān)方與適應性治理和協(xié)作。歐盟歐盟認識到,加快發(fā)展人工智能技術(shù)與其積極推進的數(shù)字經(jīng)濟建設密不可分,而要確保數(shù)字經(jīng)濟建設長期健康穩(wěn)定發(fā)展,不僅要在技術(shù)層面爭取領(lǐng)先地位,也需要在規(guī)范層面盡早占據(jù)領(lǐng)先地位。2019年4月,歐盟AI高級專家組(AIHLEG)正式發(fā)布《可信人工智能倫理指南》,在該指南中提出了實現(xiàn)可信人工智能的參考框架,在該框架中可信人工智能的基礎(chǔ)由合法合規(guī)、倫理、魯棒性三項相輔相成,必不可少的要素構(gòu)成。指南根據(jù)該三項要素提出了尊重人的自主權(quán)、無害化、公平性、可解釋性等四項基本原則。此外,指南指出要實現(xiàn)可信賴的人工智能,必須將上述四個倫理原則轉(zhuǎn)化為可實現(xiàn)的具體要求,用于參與人工智能系統(tǒng)生命周期的各個利益相關(guān)方,如開發(fā)人員、部署人員和最終用戶,以及更廣泛的社會層面。2020年10月,歐盟委員會通過《人工智能、機器人和相關(guān)技術(shù)的倫理框架》決議,該框架的針對潛在高風險人工智能相關(guān)技術(shù),該框架從第六條到第十六條等多個方面規(guī)范了倫理相關(guān)義務,其中主要包括以人為本,安全、透明、可問責,無偏見、無歧視,社會職責、性別平等,可持續(xù)發(fā)展,尊重個人隱私和補救權(quán)益七項原則。2021年4月,歐盟委員會發(fā)布了立法提案——《歐洲議會和理事會關(guān)于制定人工智能統(tǒng)一規(guī)則(人工智能法)和修訂某些歐盟立法的條例》,其主要內(nèi)容包括對人工智能應用風險進行劃分,將風險等級劃分為不可接受風險、高風險、風險有限以及風險最低四個級別,以對人工智能系統(tǒng)進行分級管理,并明確監(jiān)管部門和處罰要求,意圖通過法律手段提高可信人工智能系統(tǒng)的發(fā)展。美國美國基于國家安全的戰(zhàn)略高度,強調(diào)人工智能倫理對軍事、情報和國家競爭力的作用。以行政令為指導思想,從技術(shù)、標準、管理、應用等層面推動人工智能倫理的規(guī)范和使用。2019年6月,美國國家科學技術(shù)委員會發(fā)布《國家人工智能研究與發(fā)展戰(zhàn)略計劃》以落實上述行政令,提出人工智能系統(tǒng)必須是值得信賴的,應當通過設計提高公平、透明度和問責制等舉措,設計符合倫理道德的人工智能體系。2019年10月,美國國防創(chuàng)新委員會(DIB)發(fā)布《人工智能準則:美國國防部(DoD)人工智能倫理使用推薦性規(guī)范》,該推薦性規(guī)范主要基于現(xiàn)有美國憲法和戰(zhàn)爭法以及國際條款中的倫理參考框架,共提出負責任、公平、可追溯、可靠性以及可治理五項倫理原則。英國2016年11月,英國科技辦公室發(fā)布《人工智能:未來決策制定的機遇與影響》,報告中關(guān)注人工智能對個人隱私、就業(yè)以及政府決策可能帶來的影響,并就處理人工智能帶來的道德和法律風險提出了建議。2018年4月,英國議會下屬的人工智能特別委員會發(fā)布《英國人工智能發(fā)展的計劃、能力與志向》,提出了“人工智能不應用于削弱個人、家庭乃至社區(qū)的數(shù)據(jù)權(quán)利或隱私”的基本道德準則。德國2017年6月,德國聯(lián)邦交通與數(shù)字基礎(chǔ)設施部推出全球首套《自動駕駛倫理準則》,提出了自動駕駛汽車的20項道德倫理準則。特別針對無可避免的兩難事故決策,規(guī)定不得存在任何基于年齡、性別、種族、身體屬性或任何其他區(qū)別因素的歧視判斷。日本2017年5月,日本人工智能學會發(fā)布了《日本人工智能學會倫理準則》,要求日本人工智能學會會員應當遵循并實踐尊重隱私的原則。值得注意的是,該學會與純粹的學術(shù)團體不同,除高校、科研機構(gòu)和產(chǎn)業(yè)巨頭外,還有科學技術(shù)振興機構(gòu)等政府部門參與。新加坡2020年1月,新加坡個人數(shù)據(jù)保護委員會發(fā)布《人工智能治理框架》,該框架提出了人工智能治理結(jié)構(gòu)和方法,并針對人工智能倫理問題,總結(jié)梳理了具備一定共識的倫理原則,并將上述倫理原則融入人工智能治理框架中。表1人工智能倫理相關(guān)國際政策法規(guī)文件發(fā)布機構(gòu)文件題目發(fā)布時間關(guān)鍵內(nèi)容國際組織經(jīng)濟合作與發(fā)展組織(OECD)《人工智能原則》2019年5月人工智能可信賴聯(lián)合國教科文組織《人工智能倫理問題建議書》2021年11月人工智能倫理美國美國計算機協(xié)會公共政策委員會《算法透明性和可問責性的聲明》2017年1月可解釋性美國參議院《2018年惡意偽造禁令法案》2018年12月深度偽造技術(shù)美國白宮《美國人工智能倡議》2019年2月對抗樣本技術(shù)、深度偽造技術(shù)美國國家科學技術(shù)委員會《國家人工智能研究與發(fā)展戰(zhàn)略計劃》2019年6月公平性、透明美國國會《2019年深度偽造報告法案》2019年6月深度偽造技術(shù)美國國防創(chuàng)新委員會(DIB)2019年10月負責、公平性、可追蹤、可靠、可控美國政府問責局《人工智能:聯(lián)邦機構(gòu)和其他實體的問責框架》2021年6月可問責美國國會《算法責任法案》2022年2月公平性、透明、可問責歐盟歐盟委員會《通用數(shù)據(jù)保護條例》2018年5月可解釋性、公平性歐盟委員會《算法責任與透明治理框架》2019年4月透明、可問責歐盟AI高級專家組(AIHLEG)《可信人工智能倫理指南》2019年4月人工智能可信賴歐洲議會研究中心《人工智能倫理:問題和倡議》2020年5月人工智能倫理歐盟AI高級專家組(AIHLEG)《可信AI評估列表》2020年7月人工智能可信賴歐盟委員會《人工智能、機器人和相關(guān)技術(shù)的倫理框架》2020年10月人工智能倫理歐盟委員會《人工智能法》2021年4月風險分級發(fā)布機構(gòu)文件題目發(fā)布時間關(guān)鍵內(nèi)容德國德國聯(lián)邦交通與數(shù)字基礎(chǔ)設施部《自動駕駛倫理準則》2017年8月自動駕駛倫理英國英國科技辦公室《人工智能:未來決策制定的機遇與影響》2016年11月隱私保護英國議會下屬人工智能特別委員會《英國人工智能發(fā)展的計劃、能力與志向》2018年4月隱私保護日本日本人工智能學會《日本人工智能學會倫理準則》2017年5月人工智能倫理日本內(nèi)閣府《以人類為中心的AI社會原則》2018年12月人工智能倫理新加坡新加坡個人數(shù)據(jù)保護委員會《人工智能治理框架》2020年1月人工智能倫理新加坡個人數(shù)據(jù)保護委員會《人工智能治理測試框架和工具包》2022年5月人工智能倫理我國發(fā)展與治理并重,積極促成國際治理合力我國將人工智能倫理規(guī)范作為促進人工智能發(fā)展的重要保證措施,不僅重視人工智能的社會倫理影響,而且通過制定倫理框架和倫理規(guī)范,以確保人工智能安全、可靠、可控。2017年7月,國務院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》提出“分三步走”的戰(zhàn)略目標,掀起了人工智能新熱潮,并明確提出要“加強人工智能相關(guān)法律、倫理和社會問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架”。2019年6月,中國國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,提出了人工智能治理的框架和行動指南。治理原則突出了發(fā)展負責任的人工智能這一主題,強調(diào)了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理等八條原則。2021年9月25日,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能倫理規(guī)范》,該規(guī)范提出了增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養(yǎng)等6項基本倫理規(guī)范。同時,提出人工智能管理、研發(fā)、供應、使用等特定活動的18項具體倫理要求。2022年3月20日,國務院辦公廳印發(fā)《關(guān)于加強科技倫理治理的意見》,為進一步完善科技倫理體系,提升科技倫理治理能力,有效防控科技倫理風險,該意見提出應加強科技倫理的治理要求、明確科技倫理原則、健全科技倫理治理體制、加強科技倫理治理制度保障、強化科技倫理審查和監(jiān)管以及深入開展科技倫理教育和宣傳。表2人工智能倫理相關(guān)國內(nèi)政策法規(guī)文件發(fā)布機構(gòu)文件題目發(fā)布時間關(guān)鍵內(nèi)容國務院《新一代人工智能發(fā)展規(guī)劃》2017年7月人工智能倫理中華人民共和國工業(yè)和信息化部《促進新一代人工智能產(chǎn)業(yè)發(fā)2017年12月AI隱私風險國家新一代人工智能治理專業(yè)委員會《新一代人工智能治理原2019年6月人工智能倫理全國人民代表大會常務委員會《中華人民共和國個人信息保護法》2021年8月可解釋性國家新一代人工智能治理專業(yè)委員會《新一代人工智能倫理規(guī)范》2021年9月人工智能倫理國家互聯(lián)網(wǎng)信息辦公室《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》2021年12月公平性、透明中共中央辦公廳、國務院辦公廳《關(guān)于加強科技倫理治理的意見》2022年3月科技倫理國家互聯(lián)網(wǎng)信息辦公室《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》2022年11月深度合成技術(shù)、透明中華人民共和國外交部《中國關(guān)于加強人工智能倫理治理的立場文件》2022年11月人工智能倫理--PAGE13---PAGE10-人工智能倫理治理標準化指南2人工智能倫理準則人工智能倫理治理標準化指南2人工智能倫理準則公眾對科技發(fā)展持樂觀態(tài)度且保持高位穩(wěn)定狀態(tài),在充分肯定科技給人類帶來好處的同時,越來越關(guān)注技術(shù)所帶來的嚴重后果和社會風險?!凹訌娍萍紓惱碇卫?,實現(xiàn)高水平科技自立自強”的價值觀是我國人工智能倫理準則的戰(zhàn)略支撐之一。黨的十九屆五中全會提出了堅持創(chuàng)新在我國現(xiàn)代化建設全局中的核心地位,把科技自立自強作為國家發(fā)展的戰(zhàn)略支撐。2022年3月20日,中共中央辦公廳、國務院辦公廳印發(fā)了《關(guān)于加強科技倫理治理的意見》,提出“科技倫理是開展科學研究、技術(shù)開發(fā)等科技活動需要遵循的價值理念和行為規(guī)范,是促進科技事業(yè)健康發(fā)展的重要保障?!?,并明確了五大類科技倫理原則。(一)增進人類福祉??萍蓟顒討獔猿忠匀嗣駷橹行牡陌l(fā)展思想,有利于促進經(jīng)濟發(fā)展、社會進步、民生改善和生態(tài)環(huán)境保護,不斷增強人民獲得感、幸福感、安全感,促進人類社會和平發(fā)展和可持續(xù)發(fā)展。(二)尊重生命權(quán)利??萍蓟顒討畲笙薅缺苊鈱θ说纳踩?、身體健康、精神和心理健康造成傷害或潛在威脅,尊重人格尊嚴和個人隱私,保障科技活動參與者的知情權(quán)和選擇權(quán)。使用實驗動物應符合“減少、替代、優(yōu)化”等要求。(三)堅持公平公正??萍蓟顒討鹬刈诮绦叛?、文化傳統(tǒng)等方面的差異,公平、公正、包容地對待不同社會群體,防止歧視和偏見。(四)合理控制風險??萍蓟顒討陀^評估和審慎對待不確定性和技術(shù)應用的風險,力求規(guī)避、防范可能引發(fā)的風險,防止科技成果誤用、濫用,避免危及社會安全、公共安全、生物安全和生態(tài)安全。(五)保持公開透明??萍蓟顒討膭罾嫦嚓P(guān)方和社會公眾合理參與,建立涉及重大、敏感倫理問題的科技活動披露機制。公布科技活動相2人工智能倫理準則2人工智能倫理準則人工智能倫理治理標準化指南人工智能倫理治理標準化指南關(guān)信息時應提高透明度,做到客觀真實。本部分以《關(guān)于加強科技倫理治理的意見》中的五大類科技倫理原則為基礎(chǔ),總結(jié)歸納目前國內(nèi)外人工智能倫理準則的關(guān)鍵詞,梳理細化十類可實施性較強人工智能倫理準則,并基于標準化視角拆解、具象化各準則的要求,為后續(xù)具體標準的研制提供可操作的方向,具體細分準則及關(guān)鍵域見表3。表3科技倫理原則對應人工智能倫理準則人工智能倫理準則關(guān)鍵域(一)增進人類福祉福祉、尊嚴、自主自由等(2)可持續(xù)性(Sustainability)遠期人工智能、環(huán)境友好、向善性等(二)尊重生命權(quán)利跨文化交流、協(xié)作等(4)隱私(Privacy)知情與被通知、個人數(shù)據(jù)權(quán)利、隱私保護設計等(三)堅持公平公正(5)公平(Fairness)公正、平等、包容性、合理分配、無偏見與不歧視等(6)共享(Share)數(shù)據(jù)傳遞、平等溝通等(四)合理控制風險網(wǎng)絡安全、保密、風險控制、物理安全、主動防御等(8)內(nèi)部安全(Safety)可控性、魯棒性、可靠性、冗余、穩(wěn)定性等(五)保持公開透明可解釋、可預測、定期披露和開源、可追溯等(10)可問責(Accountability)責任、審查和監(jiān)管等--PAGE13---PAGE12-以人為本(forhuman)在科技活動中,“以人為本”可理解為科技活動應堅持以人民為中心的發(fā)展思想。進一步聚焦到人工智能領(lǐng)域,“以人為本”的涵義包括:第一,符合人類的價值觀和倫理道德,尊重人權(quán)和人類根本利益訴求,遵守國家或地區(qū)倫理道德。應以保障社會安全、尊重人類權(quán)益為前提,避免誤用,禁止濫用、惡用;第二,遵循人類共同價值觀,促進人機和諧,服務人類文明進步,促進人類社會穩(wěn)健發(fā)展。堅持公共利益優(yōu)先,推動經(jīng)濟、社會發(fā)展,不斷增強人民獲得感幸福感,共建人類命運共同體。在不同應用場景中,“以人為本”涉及不同內(nèi)容,可以歸納為福祉、尊嚴、自主自由三個次級關(guān)鍵詞。(1)福祉(wellbeing)“福祉”可能的應用場景包括:醫(yī)療健康。人工智能技術(shù)的設計者應確保滿足對明確定義的使用案例或指示的安全性、準確性和有效性的監(jiān)管要求;以健康需求為核心,提供實踐中的質(zhì)量控制措施并對使用人工智能改進質(zhì)量提供有效測度。社會環(huán)境。根據(jù)公平性和預防損害原則,在整個人工智能系統(tǒng)的生命周期中,更廣泛的社會、蕓蕓眾生和環(huán)境也應被視為利益相關(guān)者,應鼓勵人工智能系統(tǒng)的可持續(xù)性和生態(tài)責任。在理想情況下,人工智能系統(tǒng)應用于使所有人類(包括)后代受益。教育。教育人工智能的設計、開發(fā)和應用應當為教育活動的所有利益相關(guān)者帶來福利,以實現(xiàn)所有教育教學活動相關(guān)人員的教育利益最大化為目標。(2)尊嚴(dignity)“尊嚴”可能的應用場景有:教育。人工智能的發(fā)展應維護兒童的尊嚴,重視并尊重兒童自身的思想、意愿、情感、興趣愛好、自尊心等,避免對兒童的人格尊嚴造成傷害。居家養(yǎng)老。人工智能應在發(fā)揮輔助居家養(yǎng)老功能時,保障居家老人的自主意愿,維護其人格與尊嚴,避免加劇老年人自卑感、無力感與孤獨感。智能機器人。人類尊嚴以社會關(guān)系為特征,要求用戶明確是否以及何時與機器或另一個人交往,因此在智能機器人的使用過程中,必須保留將某些任務交給人類或機器的選擇權(quán)利。(3)自主自由(autonomyandfreedom)“自主自由”可能的應用場景包括:醫(yī)療健康。人類自身應確保繼續(xù)掌控醫(yī)療決策過程和對醫(yī)療系統(tǒng)的控制,自行選擇人工智能介入治療的方式和程度。教育。教育人工智能在給學習者提供認知支架和智能化教學支持服務的同時,應當保留學習者根據(jù)自身需要和個性特征做出選擇的權(quán)利,而不是代替學生做出選擇,即給予學生充分的自主選擇權(quán),而不是將其作為某種目標對象來對待。司法。自由自主原則即“在用戶控制下”的原則,要求除特殊規(guī)定外,必須確保用戶是知情的行動者,并能夠自主做出選擇?!翱沙掷m(xù)性”的基本涵義為一種可以長久維持的過程或狀態(tài)??沙掷m(xù)性指人們在滿足人類需求與未來發(fā)展時,在資源開發(fā)、技術(shù)發(fā)展和制度變革中保持環(huán)境平衡與和諧的過程,也指生態(tài)和社會關(guān)系中能夠保持的一定的過程或某種可接受的狀態(tài)。在不同人工智能倫理準則中,“可持續(xù)性”的內(nèi)涵包括:第一,人工智能的設計和發(fā)展應該是為了促進社會和人類文明的進步,促進自然和社會的可持續(xù)性,使全人類和環(huán)境受益,提高社會和生態(tài)的福祉;第二,人工智能系統(tǒng)的目標應該被清楚地確定和證明。理想情況下,人工智能系統(tǒng)應該被用來造福全人類,包括后代;第三,幫助人工智能在全社會領(lǐng)域發(fā)展,讓人工智能可以全方位立體性地滲透人們的生活,讓每個人都可以享受人工智能帶來的發(fā)展成果。在不同應用場景中,“可持續(xù)性”涉及不同內(nèi)容,包括遠期人工智能、環(huán)境友好、向善性等。遠期人工智能(longtermAI)未來十年是人工智能產(chǎn)業(yè)發(fā)展的重要時期,遠期人工智能技術(shù)的發(fā)展路徑將會沿著算法、算力兩條主線向前發(fā)展,并逐步帶領(lǐng)人類進入到人機協(xié)同時代。發(fā)展人工智能的最終目標不是要替代人類智能,而是要與人類智能形成互補,使得人類從繁重的重復性工作中解放出來,從而專注于推動人類自身文明進步。人工智能的發(fā)展關(guān)系到整個社會、全人類和環(huán)境的未來,因此在人工智能的研究、開發(fā)、使用、治理和長期規(guī)劃中,應呼吁其健康發(fā)展,以支持建設一個擁有共同未來的人類社會,并實現(xiàn)有益于人類和自然的人工智能。環(huán)境友好(environmentfriendly)人工智能可以從多個方面對環(huán)境產(chǎn)生積極影響,到2030年,人工智能在環(huán)境方面的應用能夠產(chǎn)生約5.2萬億美元的價值。人工智能可以幫助減少人工成本,進行精準調(diào)控,有效降低生產(chǎn)風險,降低對環(huán)境的有害影響,實現(xiàn)可持續(xù)性的發(fā)展目標。例如,人工智能技術(shù)可以將生活生產(chǎn)有關(guān)的設施集成,構(gòu)建高效的設施設備、人員、資源的管理系統(tǒng),實現(xiàn)遠程控制設備、設備間互聯(lián)互通、設備自我學習等功能,通過收集、分析用戶行為數(shù)據(jù),為用戶提供個性化服務的同時,綜合管理水電等資源,實現(xiàn)環(huán)保節(jié)能的環(huán)境。向善性(preventionofharm)在全生命周期中,人工智能系統(tǒng)的相應預測結(jié)果或行為應不超出實現(xiàn)合法目的或目標所需的范圍,不得對人類、個別社區(qū)和整個社會造成損害。人工智能系統(tǒng)在數(shù)據(jù)、算法、應用管理三個層面均應考慮向善性的因素。數(shù)據(jù)層面的向善性聚焦對于數(shù)據(jù)處理活動的管理和治理,降低由于數(shù)據(jù)安全以及質(zhì)量問題導致算法決策失誤、偏見和惡意,以及考慮解決數(shù)據(jù)泄露而導致的個人隱私問題。算法層面的向善性要求從設計開發(fā)階段就應該考慮算法決策的是否會存在對人、社會層面的潛在危害,并在系統(tǒng)立項階段就需要針對算法安全進行評估。應用層面的向善性更多側(cè)重在算法用戶是否科學、合理、適度的使用人工智能系統(tǒng),從而降低由于錯用、誤用、濫用等使用問題導致的偏見歧視、人身傷害等問題的發(fā)生。合作(collaboration)“合作”的基本涵義為互相配合做某事或共同完成某項任務。在人工智能倫理領(lǐng)域,建立跨文化互信是全球和諧發(fā)展的基石,實現(xiàn)人工智能對全球有益需在人工智能倫理標準與治理的諸多相關(guān)領(lǐng)域達成國際合作。因此,人工智能應“重視開放協(xié)作,鼓勵跨學科、跨領(lǐng)域、跨地區(qū)、跨國界的交流合作……在充分尊重各國人工智能治理原則和實踐的前提下,推動形成具有廣泛共識的國際人工智能治理框架和標準規(guī)范?!保?)跨文化交流(cross-culturalcommunication)來自不同文化背景或國家的團體協(xié)力合作,確保人工智能技術(shù)的發(fā)展、應用、治理能夠造福社會。跨文化交流對于實現(xiàn)相關(guān)的倫理及治理舉措至關(guān)重要??缥幕芯亢献髋c交流有助于化解合作障礙、增進不同觀點和共同目標的理解與信任。具體事例包括但不限于:工智能系統(tǒng);平等汲取多樣的國際視角;邀請各國利益相關(guān)者參與制定實踐準則、標準及法規(guī)等。人工智能倫理與治理關(guān)乎全球人工智能發(fā)展與創(chuàng)新的方向與未來,跨文化交流重點在于厘清需要國際準則或協(xié)定進行規(guī)范的問題,或者確定需要突出文化差異的情況。為建立更牢固的跨文化信任,要正確認知、消除誤解,增進不同文化與國家之間的互相理解,更好地推動相關(guān)原則、政策、標準、法律的制定、技術(shù)與社會落地。(2)協(xié)作(cooperation)人工智能的數(shù)字鴻溝問題指新技術(shù)和能力的掌握者在生產(chǎn)力、生活水平、文化教育等多個方面與其它群體顯著拉開差距,嚴重情況下造成社會或國家間的兩極分化。因此,人工智能技術(shù)先進國家應以當?shù)卣Z言開發(fā)人工智能倫理教育的在線課程和數(shù)字資源,并考慮到環(huán)境多樣性,特別要確保采用殘障人士可以使用的格式,促進人工智能技術(shù)技能教育與人工智能教育的人文、倫理和社會方面的交叉協(xié)作。應鼓勵在人工智能領(lǐng)域開展國際合作與協(xié)作,以彌合地緣技術(shù)差距,填平“數(shù)字鴻溝”。應在充分尊重國際法的前提下,與其民眾之間、公共和私營部門之間以及技術(shù)上最先進和最落后的國家之間,開展技術(shù)交流和磋商。隱私(privacy)“隱私”的基本涵義指的是自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動、私密信息。保護隱私具有維護人格尊嚴、維護個人安寧、提高個人安全感和保護個人自由等作用。人工智能倫理準則中涉及隱私的條款包括:知情權(quán)和選擇權(quán)。在個人信息的收集、存儲、處理、使用等各環(huán)節(jié)應設置邊界,建立規(guī)范。完善個人數(shù)據(jù)授權(quán)撤銷機制,反對任何竊取、篡改、泄露和其他非法收集利用個人信息的行為。正當、必要和誠信原則處理個人信息,保障個人隱私與數(shù)據(jù)安全,不得損害個人合法數(shù)據(jù)權(quán)益,不得以竊取、篡改、泄露等方式非法收集利用個人信息,不得侵害個人隱私權(quán)。在人工智能倫理中,“隱私”這一重要的關(guān)鍵詞,還涵括以下內(nèi)容:知情和被通知(informedandnoti?ed)在全球個人信息保護制度中,“知情同意”原則一直是基礎(chǔ)性制度,也是人機交互的核心問題?!巴ㄖ屯狻笔枪叫畔T例(FIPs)的關(guān)鍵組成部分,是20世紀末為應對信息日益數(shù)字化而制定的一套原則。越來越多的國家或地區(qū)通過立法建立數(shù)據(jù)保護和隱私制度,核心是為合法收集和處理有關(guān)個人的數(shù)據(jù)提供法律依據(jù),強調(diào)個人對信息的控制和數(shù)據(jù)處理的程序保障,而不是對做法的實質(zhì)性禁止。在線隱私和信息共享影響著人類生活的方方面面,“同意”概念和征求同意的機制反映出現(xiàn)有機制忽視倫理和規(guī)范價值問題?,F(xiàn)有的“知情同意”或“通知同意”機制面臨著保護人權(quán)的挑戰(zhàn)。理想的解決方案既應最大程度地訪問數(shù)據(jù),又應保護每個人控制隱私和數(shù)據(jù)使用透明性的權(quán)利,保留所有人撤銷同意訪問的權(quán)力。個人數(shù)據(jù)權(quán)利(personaldatarights)個人數(shù)據(jù)權(quán)利包括獲得數(shù)據(jù)和掌控數(shù)據(jù)的權(quán)利。獲得數(shù)據(jù)的權(quán)利是指人們可以通過合法方式、途徑或渠道,無障礙獲取各種信息的能力,包括主動獲取信息與被動接收信息的利益;這一權(quán)利的實現(xiàn),前提在于獲取信息的方式、途徑或渠道必須符合法律規(guī)定,任何偏離法律的信息獲取,或是通過非法手段獲得的信息,都不屬于人們正常享有的獲得信息的權(quán)利。同時,個人享有對于其個人數(shù)據(jù)的權(quán)利,并有權(quán)獲得適當程度的保護,使得個人可以掌控其個人數(shù)據(jù)。個人對其個人數(shù)據(jù)的權(quán)利包括知情權(quán)、同意權(quán)(決定權(quán))、查閱權(quán)、刪除權(quán)、可攜帶權(quán)、更正權(quán)、補充權(quán)等。隱私保護設計(privacyprotectiondesign)人工智能算法基于個人數(shù)據(jù)描繪用戶畫像,基于特定畫像類型進行相關(guān)內(nèi)容、產(chǎn)品或服務的匹配。人工智能獲取個人數(shù)據(jù)并進行處理,從而做出與數(shù)據(jù)主體高度匹配的決策。因此,需要限制人工智能處理個人數(shù)據(jù)的能力,防止人工智能決策損害人的合法權(quán)益,通過對決策所需個人數(shù)據(jù)收集和處理的規(guī)制,或者是對算法公開化、透明化、可解釋性等方式的規(guī)制,限制人工智能對個人數(shù)據(jù)不合理、不合法和不必要的處理。確定隱私設計原則被認為是最好的選擇,主要包括七大原則:積極預防,而非被動救濟;隱私默認保護;將隱私嵌入設計之中,使其成為系統(tǒng)的核心組成部分同時又不損害系統(tǒng)的功能;功能完整——正合而非零和,主張實現(xiàn)用戶、企業(yè)等多方共贏;全生命周期保護,主張為用戶隱私提供從搖籃到墳墓全過程保護;可見性和透明性;尊重用戶隱私,確保以用戶為中心。公平(fairness)“公平”概念有著極為豐富的內(nèi)涵,是社會建構(gòu)、蓬勃發(fā)展的基礎(chǔ)要素。從基本含義看,公平指處理事情合情合理,不偏袒哪一方。在社會生活中,認識和評價是否公平往往具有明顯的主觀色彩,人們?nèi)菀讖奶囟龊湍康某霭l(fā),選擇不同的標準和尺度進行評判。人工智能活動至少應確保在平等主體的交往中各方充分交流、相互知情,在共識機制下,分享人工智能帶來的益處,合理分配風險;在社會組織中,為所有人提供同等、沒有偏頗的機會,以及合理分配社會資源和利益;在集體、民族國家的交往中,確保各方共享人工智能技術(shù)紅利,并尊重不同的文化與習俗。典型的公平問題包括大數(shù)據(jù)殺熟、算法黑箱、加劇認知繭房等對用戶利益進行侵害的行為。公平作為人工智能倫理準則的一個重要關(guān)鍵詞,具體涵義同以下關(guān)鍵詞密切關(guān)聯(lián):公正(justice)“公正”指通過公平合理的利益(權(quán)利、權(quán)力、財富、機會等)分配使每一個成員得其所應得。公正是一種價值要求,要求分配的公平性與合理性。在人工智能領(lǐng)域,公正也往往涉及社會層面的資源分配,以及對社會不良現(xiàn)象的正義的懲罰,對受害者適當?shù)谋Wo。公正的可能應用場景包括:社會執(zhí)法、司法裁判、政務服務、社會有限資源的合理分配。平等(equality)在社會的組織過程中,存在諸多利益分配關(guān)系的對等。人工智能活動下的平等更多強調(diào)在社會資源、利益分配方面的機會均等,或不同主體間應當存在的對等關(guān)系。如保證社會各類主體獲得教育、物資、工作、技術(shù)等與其發(fā)展息息相關(guān)的機會均等,保證不同背景的群體都可以按其習慣或舒適的方式使用公共的人工智能服務。包容性(inclusion)“包容性”多針對技術(shù)應用階段,指技術(shù)開發(fā)或服務提供者在給終端用戶提供包含人工智能能力的服務時,需要確保人工智能技術(shù)的惠益人人可得可及,同時也要考慮不同年齡、不同文化體系、不同語言群體、殘障人士、女童和婦女以及處境不利、邊緣化和弱勢群體或處境脆弱群體的具體需求。合理分配(reasonabledistribution)人工智能應用于社會時,會與不同形式的社會公平問題產(chǎn)生聯(lián)系。人工智能應確保平等且正義地分配社會利益和損失,促進社會有限資源的合理分配,避免“數(shù)字鴻溝”,包括教育、醫(yī)療、應急、生活物資等;確保社會個體或群體不受到偏見、歧視、污名化,確保技術(shù)成果和帶來的福利人人可享受。人工智能系統(tǒng)的使用不應讓人們受到欺騙或不合理的損害,而應保障其自主決策權(quán)利。此外,公平也意味著人工智能從業(yè)者應遵守手段和目的的比例原則,審慎思考如何平衡利益和目的,即當有多種方法可以實現(xiàn)特定目的時,應考慮選擇對基本人權(quán)和倫理規(guī)范產(chǎn)生負面影響最小的方案。無偏見與不歧視(unbiasandnon-discrimination)人工智能系統(tǒng)本身或?qū)ζ涞膽每赡芤虼嬖谄罨蚴艿缴鐣娪绊?,而引發(fā)或激化社會偏見,進而導致歧視行為。導致人工智能系統(tǒng)存在偏差的因素包括模型數(shù)據(jù)訓練、模型結(jié)構(gòu)設計、系統(tǒng)開發(fā)等。而導致系統(tǒng)應用存在偏差或偏見的因素較為復雜,多與使用者對系統(tǒng)的理解,以及其固有的社會偏見認知相關(guān)。共享(share)“共享”即分享,基本涵義是將一件物品或者信息的使用權(quán)或知情權(quán)與其他人共同擁有,有時也包括產(chǎn)權(quán)。在人工智能倫理領(lǐng)域,共享作為常見關(guān)鍵詞之一,涵義包括:小區(qū)域差距;應促進包容發(fā)展,加強人工智能教育及科普,提升弱勢群體適應性,努力消除數(shù)字鴻溝;應促進共享發(fā)展,避免數(shù)據(jù)與平臺壟斷,鼓勵開放有序競爭。以自由、開放和共享為內(nèi)核的共享倫理,其為一種超越物倫理的信息倫理,即以自由、開放和共享為內(nèi)核的共享倫理。在人工智能的具體應用場景中,共享除基本含義外還應當包括平等。(1)數(shù)據(jù)傳遞(datatransmission)隨著對數(shù)據(jù)安全的重視和隱私保護法案的出臺,曾經(jīng)粗放式的數(shù)據(jù)共享受到挑戰(zhàn),各個數(shù)據(jù)擁有者重新回到數(shù)據(jù)孤島的狀態(tài)。同時,互聯(lián)網(wǎng)公司更難以收集和利用用戶的隱私數(shù)據(jù),數(shù)據(jù)孤島成為常態(tài)。實現(xiàn)數(shù)據(jù)的更充分利用,需要在滿足隱私保護和數(shù)據(jù)安全的前提下,在不同組織、公司與用戶之間進行數(shù)據(jù)共享。共享智能是希望在多方參與且各數(shù)據(jù)提供方與平臺方互不信任的場景下,能夠聚合多方信息進行分析和機器學習,并確保各參與方的隱私不被泄露,信息不被濫用。鼓勵算力平臺、共性技術(shù)平臺、行業(yè)訓練數(shù)據(jù)集、仿真訓練平臺等人工智能基礎(chǔ)設施資源開放共享,為人工智能企業(yè)開展場景創(chuàng)新提供算力、算法資源。鼓勵地方通過共享開放、服務購買、創(chuàng)新券等方式,降低人工智能企業(yè)基礎(chǔ)設施使用成本,提升人工智能場景創(chuàng)新的算力支撐。以物聯(lián)網(wǎng)為基礎(chǔ),通過物聯(lián)化、互聯(lián)化、智能化的方式,綜合無線傳感技術(shù)、自動控制技術(shù)、網(wǎng)絡技術(shù)和數(shù)據(jù)庫技術(shù)實現(xiàn)現(xiàn)代化、智能化、共享化管理。以大數(shù)據(jù)智能為基礎(chǔ),需要解決數(shù)據(jù)碎片化的問題,實現(xiàn)從數(shù)據(jù)到知識,從知識到智能的跨躍,打穿數(shù)據(jù)孤島,建立鏈接個人和機構(gòu)的跨領(lǐng)域知識中心,形成開放式、互聯(lián)互通的信息共享機制。為實現(xiàn)數(shù)據(jù)的有效共享,建議構(gòu)建開放共享的領(lǐng)域大數(shù)據(jù)云平臺。對各級機構(gòu)、各種信息數(shù)據(jù)源的信息進行統(tǒng)一管理,實現(xiàn)對個體數(shù)據(jù)的高度整合。另一方面,在現(xiàn)有信息化平臺的基礎(chǔ)上進行標準化改良,統(tǒng)一數(shù)據(jù)格式和描述規(guī)范,實現(xiàn)不同機構(gòu)、不同來源信息存儲與表達的規(guī)范化。利用標準化信息接口串聯(lián)各機構(gòu)數(shù)據(jù),優(yōu)化信息管理結(jié)構(gòu),實現(xiàn)信息系統(tǒng)的實時、同步更新,實現(xiàn)各級、各機構(gòu)間的信息共享網(wǎng)絡。(2)平等溝通(equallydiscussion)“平等”原則一般出現(xiàn)在人工智能招聘、選拔等對人的篩選活動中。人工智能招聘工具不僅可以幫助企業(yè)更加快速地對大量應聘者進行初步篩選,節(jié)省人力資源工作者的時間。然而,人工智能招聘工具在獲得廣泛信任之前面臨的最大障礙之一是缺乏公共數(shù)據(jù)。一方面,機器學習的數(shù)據(jù)是非公開的,人們無法確認提高招聘中算法公平性的努力是否真的有效。另一方面,一旦使用人工智能工具歧視某些群體被證明,公司可能會面臨嚴重的法律后果。另外,由于目前人工智能算法可解釋性較低,當歧義出現(xiàn)時,無法合理向落選者給出原因。人們在經(jīng)濟、政治、文化等方面處于同等的地位,享有相同的權(quán)利,考慮平等就業(yè)的重要性,因此,在招聘過程中,以及在可能影響勞動權(quán)利、消費者權(quán)利的場景下使用人工智能應用將始終被認定為“高風險”。需要給予人工智能算法受用者一個人與人之間平等溝通的機會,確保人的意志被充分傳達。外部安全(security)“主動安全”的基本涵義是信息系統(tǒng)不受來自系統(tǒng)外部的自然災害和人為的破壞,防止非法使用者對系統(tǒng)資源,特別是信息的非法使用的特性。在人工智能倫理中,安保在不同人工智能倫理準則中的具體涵義有:1.在人工智能系統(tǒng)的整個生命周期內(nèi),應避免并解決、預防和消除意外傷害以及易受攻擊的脆弱性,確保人類、環(huán)境和生態(tài)系統(tǒng)的安全。人工智能系統(tǒng)的主動安全準則主要側(cè)重在人工智能系統(tǒng)的性能表現(xiàn)和抵抗外部惡意攻擊的能力,該能力與人工智能可控性與可問責性相關(guān),增強人工智能系統(tǒng)的可控性和可問責性可以有效提升系統(tǒng)的安全性。增強安全透明。在算法設計、實現(xiàn)、應用等環(huán)節(jié),提升透明性、可解釋性、可理解性、可靠性、可控性,增強人工智能系統(tǒng)的韌性、自適應性和抗干擾能力,逐步實現(xiàn)可驗證、可審核、可監(jiān)督、可追溯、可預測、可信賴。“主動安全”在不同應用場景中還包括:網(wǎng)絡安全(cybersecurity)網(wǎng)絡安全可能出現(xiàn)在對抗機器學習(adversarialmachinelearning)這一應用場景中,例如:數(shù)據(jù)投毒,即破壞訓練數(shù)據(jù)完整性、保密性、可用性;或者是對抗樣本攻擊,即通過物理世界或數(shù)字世界對模型進行攻擊,降低模型性能。對應的網(wǎng)絡安全防范措施為對抗訓練,可以有效削弱數(shù)據(jù)集中下毒攻擊和對抗樣本攻擊的負面影響。保密(con?dential)在人工智能數(shù)據(jù)全生命周期中,數(shù)據(jù)采集、數(shù)據(jù)預處理(數(shù)據(jù)脫敏、數(shù)據(jù)標注)、模型訓練、模型部署、模型推理等環(huán)節(jié)存在數(shù)據(jù)安全問題,可能導致個人信息泄露。因此,保密性在人工智能數(shù)據(jù)全生命周期中都值得關(guān)注。風險控制(riskcontrol)風險控制存在于人工智能模型研發(fā)全流程。在設計階段需要考慮設計需求、風險管理、算法安全與數(shù)據(jù)安全,進行算法安全評估、個人信息安全影響評估以及風險評估。在人工智能模型研發(fā)全流程中,對算法、數(shù)據(jù)等內(nèi)容需要從保密性、完整性、可用性、穩(wěn)健性、隱私性等原則進行風險識別、風險分析,并進行風險評估,最后給出風險控制措施。物理安全(physicalsecurity)物理安全包括人工智能系統(tǒng)相關(guān)硬件安全,以及涉及硬件層與相關(guān)應用使能層的安全模塊,如通信加解密、存儲加密、攻擊檢測、鑒權(quán)管理、密鑰管理、硬件根密鑰、可信執(zhí)行環(huán)境、安全審計等。物理安全主要針對人工智能系統(tǒng)、計算設備等硬件。主動防御(activedefense)主動防御過程包括確認(validation)、驗證(verification)和測試(test)三方面。確認主要針對機器的運行行為進行確認,以確保其符合用戶的需求。驗證針對機器的軟硬件實現(xiàn)進行驗證,以確保其符合預先定義的規(guī)范,同時這一規(guī)范又是人所定義的。測試針對機器的運行過程及結(jié)果進行測試,以保證其符合測試者預先定義的目標。內(nèi)部安全(safety)安全的基本涵義是平安無損害,不受危險或損害的。根據(jù)ISO/IECTR154431:2012:總攬和框架》對安全進行定義,“安全”是指對某一系統(tǒng),據(jù)以獲得保密性、完整性、可用性、可核查性、真實性以及可靠性的性質(zhì)。在不同人工智能倫理準則中,“安全”一詞被頻繁提及,具體可以分為以下幾點:可控性(controllability)安全準則下的可控性,又可稱為人類控制或技術(shù)的人為控制。最基本的要求是確保人工智能永遠處于人類控制之下,在此基礎(chǔ)上,要求個人(專家,員工,業(yè)務人員)的判斷,融入人工智能系統(tǒng)流程中去,即人在環(huán)路(human-in-the-loop)。魯棒性(robustness)魯棒性指的是在機器遇到故障或干擾的情況下,保持其功能在一定程度上的穩(wěn)定性。在特定干擾或故障下可接受的魯棒性的指標需要人為設定。魯棒性應以準確性為前提,即機器可接受的準確性指標需要人為設定??煽啃裕╮eliability)可靠性主要指機器需要與其預設目標一致地運行,當遇到嚴重問題時,機器自身或者機器與人的交互需要確保具有退路(fallback)方案??煽啃赃€包括韌性(resilience),即人工智能系統(tǒng)應具備一定的抵抗惡意攻擊脆弱性的能力,包括數(shù)據(jù)投毒和模型參數(shù)竊取等攻擊方式。冗余(redundancy)在人工智能系統(tǒng)全業(yè)務場景的應用中,冗余包括設備冗余、系統(tǒng)冗余、體系冗余。所謂冗余,即從安全角度考慮額外的數(shù)量,如通過多重備份來增加系統(tǒng)的可靠性,或者在傳輸信息時,借助于信息的重復和信息的累加使對方能夠得到明確的信息,以避免遭受信道(channel)和噪聲的干擾。只有在人到機的全體系都做到冗余,才能盡量降低安全風險。穩(wěn)定性(stability)人工智能系統(tǒng)的穩(wěn)定性,主要包括四個方面:第一,狀態(tài)一致性,即輸入輸出的關(guān)聯(lián)性;第二,人的穩(wěn)定性,如體系、團隊的穩(wěn)定;第三,機器自身的穩(wěn)定性,如軟硬件、系統(tǒng)、代碼的穩(wěn)定;第四,人與機器交互的穩(wěn)定性,如接口穩(wěn)定、人機交互的穩(wěn)定。透明(transparency)在人工智能倫理領(lǐng)域,人工智能的透明性是指在不傷害人工智能算法所有者利益的情況下,公開其人工智能系統(tǒng)中使用的源代碼和數(shù)據(jù),避免“技術(shù)黑箱”。透明度要求在因知識產(chǎn)權(quán)等問題而不能完全公開算法代碼的情況下,應當適當公開算法的操作規(guī)則、創(chuàng)建、驗證過程,或者適當公開算法過程、后續(xù)實現(xiàn)、驗證目標的適當記錄。透明度的目的是為相關(guān)對象提供適當?shù)男畔?,以便他們理解和增進信任。具體到人工智能系統(tǒng),透明度可以幫助人們了解人工智能系統(tǒng)各個階段是如何按照該系統(tǒng)的具體環(huán)境和敏感度設定的。透明度還包括深入了解可以影響特定預測或決定的因素,以及了解是否具備適當?shù)谋WC。透明原則在以下三種應用場景中尤其值得關(guān)注:(1)無法解釋的算法;(2)訓練的數(shù)據(jù)集透明度不足;訓練數(shù)據(jù)選擇方法的透明度不足。在不同應用場景中,透明原則具有不同內(nèi)容:可解釋(explainable)端到端的深度學習,一個廣為詬病的問題是其不透明性或不可解釋性。隨著神經(jīng)網(wǎng)絡模型越來越復雜,在準確性越來越高的同時,我們不得不在模型的準確性和可解釋性之間做出妥協(xié),兩者常難以兼顧。結(jié)果是,有時候研究人員做出一個行之有效的模型,卻并不能完全理解其中的緣由。因此,即便得到的結(jié)論是正確的,也將因為不知道結(jié)論的推導過程而失去其作用。可預測(predictable)“可預測性”,一方面要求確保人工智能系統(tǒng)是準確、可靠且可被重復試驗的,提升人工智能系統(tǒng)決策的準確率,完善評估機制,及時減少系統(tǒng)錯誤預測帶來的意外風險。另一方面要求嚴格保護人工智能系統(tǒng),防止漏洞、黑客惡意攻擊;開發(fā)和測試中最大限度地減少意外的、不可預測的后果和錯誤,在系統(tǒng)出現(xiàn)問題時可執(zhí)行后備計劃。定期披露和開源(revealandopen-sourceregularly)披露和開源機制是人工智能治理的重要組成部分。它通過在被規(guī)制者與規(guī)制受益群體之間建立激勵機制,以推動人工智能算法開發(fā)者和運用者增強自我規(guī)制的能力,從而在市場上獲得更大的份額。政府監(jiān)管部門可以要求人工智能算法企業(yè)和平臺定期發(fā)布社會責任報告,強制披露風險活動,公開數(shù)據(jù)處理的目的、數(shù)據(jù)處理者的身份、數(shù)據(jù)接收者等相關(guān)信息。在當下發(fā)展中,算法越來越復雜,決策的影響卻越來越重大,應積極鼓勵人工智能開源活動??勺匪荩╰raceable)可追溯即確保人工智能決策的數(shù)據(jù)集、過程和結(jié)果的可追溯性,保證人工智能的決策結(jié)果可被人類理解和追蹤??勺匪菪允侵稳斯ぶ悄茏陨硗该鞫取⒖韶熜?、可審計性的關(guān)鍵質(zhì)量特性,因此在設計開發(fā)與驗證過程中,應考慮數(shù)據(jù)集、算法設計、算法需求規(guī)范、源代碼、風險管理、算法測試六大要素及其內(nèi)在關(guān)聯(lián),在運行時考慮使用環(huán)境、數(shù)據(jù)輸入、決策過程、輸出結(jié)論、使用反饋的可追溯,以過程運行日志文檔、可視化界面和可追溯性矩陣的形式呈現(xiàn)??蓡栘煟╝ccountability)在人工智能領(lǐng)域,“責任”指的是人工智能系統(tǒng)應該履行對利益相關(guān)者的責任和社會責任,并且可追責。責任原則的具體建議包括采取誠信行為和厘清責任的歸屬兩方面。誠信行為指作為人工智能研發(fā)者在進行人工智能技術(shù)研發(fā)設計時應致力于創(chuàng)建高度可靠的人工智能系統(tǒng),減少安全風險,不留“后門”;人工智能使用者在使用人工智能技術(shù)時應具有高度的社會責任感和自律意識,不利用技術(shù)侵犯他人的合法權(quán)益;人工智能技術(shù)相關(guān)各方應嚴格遵守法律法規(guī)、倫理道德和標準規(guī)范。人工智能技術(shù)不能成為限制責任的理由,必須明確人工智能情景下的責任,并根據(jù)因果關(guān)系進行規(guī)制。若有人使用人工智能技術(shù)侵害他人合法權(quán)利則需要承擔相應責任,監(jiān)管部門應將人工智能納入各環(huán)節(jié)監(jiān)管,將登記、審批、檢查等方面落實到位。根據(jù)不同應用場景,可問責性的具體涵義有所側(cè)重:(1)責任(responsibility)責任存在于金融、教育、醫(yī)療、健康、體育、文化等眾多場景中,指個體分內(nèi)應做的事,來自職業(yè)要求、道德規(guī)范和法律法規(guī)等,當行業(yè)人工智能沒有做好“分內(nèi)”工作時,則應承擔的不利后果或強制性措施。人工智能系統(tǒng)應該履行對利益相關(guān)者的責任和社會責任,并且可追責,不斷評估和調(diào)參,以促進人工智能系統(tǒng)持續(xù)不斷改進。責任還包括人工智能從業(yè)人員和使用人員的認識和素養(yǎng)要求,例如了解人工智能系統(tǒng)的影響和風險等。(2)審查和監(jiān)管(investigationandsupervision)在人工智能使用及問責過程中,重視監(jiān)督機構(gòu)的審查和監(jiān)管作用。應當建立企業(yè)內(nèi)部或者外部的監(jiān)督機構(gòu),明確人工智能系統(tǒng)相關(guān)方法定責任和義務,評估人工智能對人類權(quán)利的影響,以及對于技術(shù)負面影響的評估。同時保證人工智能在相同條件或者前提下,行為應該有一致性,并對相應的人工智能標準和最佳實踐進行不斷監(jiān)督審視,確保個人可以對人工智能的決策進行申訴、糾錯機制,強調(diào)對人工智能的自動決策提供補救措施。--PAGE29---PAGE30-2人工智能倫理準則3人工智能倫理風險分析2人工智能倫理準則3人工智能倫理風險分析基于人工智能的敏捷治理原則,為促進研發(fā)機構(gòu)和企業(yè)提供市場公眾和政府監(jiān)管等利益相關(guān)方理解、易用、敢用并用好的人工智能技術(shù),本章節(jié)將對人工智能全生命周期中主要階段的倫理風險進行分解分析,提供一個人工智能倫理風險分析和分類方法,并選取典型場景對其中的代表性倫理風險進行分析。(1)數(shù)據(jù)隨著數(shù)據(jù)采集、機器學習、人工智能等技術(shù)的使用,數(shù)據(jù)集大小呈指數(shù)級擴大,數(shù)據(jù)富含越來越大的價值,從而也導致個人信息泄露的情況頻繁發(fā)生。個人隱私保護、個人敏感信息識別的重要性日益凸現(xiàn)。人工智能技術(shù)需要海量數(shù)據(jù)用于訓練算法,帶來了數(shù)據(jù)盜用、信息泄漏等人工智能倫理風險。在人工智能系統(tǒng)開發(fā)過程中,對數(shù)據(jù)集的代表性差、規(guī)模不清晰、均衡性不足等設計問題,易導致數(shù)據(jù)集的公平性受到影響,從而影響算法公平性;數(shù)據(jù)標注過程的數(shù)據(jù)泄露等數(shù)據(jù)預處理安全問題也會導致個人信息保護的問題;缺乏對數(shù)據(jù)層面的可追溯技術(shù)也會增加人工智能系統(tǒng)在責任3人工智能倫理風險分析3人工智能倫理風險分析人工智能倫理治理標準化指南人工智能倫理治理標準化指南認定以及問責風險。表4數(shù)據(jù)層面人工智能倫理風險分析開發(fā)環(huán)節(jié)倫理風險分析倫理風險屬性設計開發(fā)數(shù)據(jù)主體采集授權(quán)相關(guān)風險隱私保護數(shù)據(jù)集的規(guī)模、均衡性等設計不足公平性數(shù)據(jù)預處理、模型訓練等環(huán)節(jié)數(shù)據(jù)處理流程安全問題隱私保護、安全數(shù)據(jù)預處理的質(zhì)量問題,如數(shù)據(jù)標注準確率不足公平性驗證測試模型評估等環(huán)節(jié)數(shù)據(jù)處理流程安全問題隱私保護、安全測試數(shù)據(jù)集規(guī)模、均衡性等質(zhì)量問題公平性測試數(shù)據(jù)集與訓練數(shù)據(jù)集重復度高透明及可解釋性部署運行模型部署環(huán)節(jié)數(shù)據(jù)處理流程安全問題隱私保護、安全模型部署時的數(shù)據(jù)集完整性等質(zhì)量問題安全模型部署時的數(shù)據(jù)集均衡性不足等質(zhì)量問題公平性模型推理環(huán)節(jié)運行數(shù)據(jù)處理流程安全問題隱私保護、安全模型推理環(huán)節(jié)運行數(shù)據(jù)泄露、缺乏對運行數(shù)據(jù)的有效可追溯技術(shù)可問責性維護升級再訓練階段數(shù)據(jù)處理流程安全問題隱私保護、安全退役下線數(shù)據(jù)退役階段數(shù)據(jù)泄露、留存數(shù)據(jù)未刪除隱私保護(2)算法在人工智能算法層面,主要存在以下3種形式的問題:存在因模型參數(shù)泄露或被惡意修改、容錯率與韌性不足造成的算法安全風險;因采用復雜神經(jīng)網(wǎng)絡的算法導致決策不透明與無法被充分解釋,同時數(shù)據(jù)的輸入和輸出關(guān)系理解不清晰,可能造成的可解釋性安全風險;以及因算法推理結(jié)果的不可預見性與人類自身的認知能力受限,導致無法預測智能系統(tǒng)做出的決策原因與產(chǎn)生的效果,造成的算法決策偏見。此外,算法在運行推理環(huán)節(jié)可能會被錯誤使用或濫用,如智能推薦算法一旦被不法分子利用,將使虛假信息、涉黃涉恐、違規(guī)言論等不良信息傳播更加具有針對性和隱蔽性,在擴大負面影響的同時減少被舉報的可能。--PAGE31---PAGE32-表5算法層面人工智能倫理風險分析開發(fā)環(huán)節(jié)風險分析倫理風險屬性設計開發(fā)算法存在對特定人群以及性別歧視設計公平性算法存在對個人和社會的惡意設計、潛在危害向善性、可持續(xù)發(fā)展算法缺乏安全、可控性設計安全、監(jiān)督和決策模型訓練環(huán)節(jié)的算法產(chǎn)生偏見、不公平問題公平性模型訓練環(huán)節(jié)的算法不可解釋問題透明及可解釋性驗證測試模型評估環(huán)節(jié)的算法偏見問題公平性模型評估環(huán)節(jié)算法安全問題安全模型評估環(huán)節(jié)中缺乏有效的版本管理、不可追溯等問題可問責性模型評估環(huán)節(jié)的算法不可解釋問題透明及可解釋性部署運行模型部署環(huán)節(jié)的環(huán)境不可控監(jiān)督和決策模型部署環(huán)節(jié)的算法安全、韌性問題安全模型部署環(huán)節(jié)的算法不可解釋問題透明及可解釋性模型推理環(huán)節(jié)的算法安全、韌性問題安全模型推理環(huán)節(jié)的算法不可控問題監(jiān)督和決策模型推理環(huán)節(jié)的算法濫用、誤用問題監(jiān)督和決策模型推理環(huán)節(jié)中缺乏有效版本管理、不可追溯等問題可問責性模型推理環(huán)節(jié)的算法不可解釋、不可預測問題透明及可解釋性維護升級模型更新時模型參數(shù)與配置不正確安全模型更新時缺乏有效版本管理可問責性退役下線模型退役時模型未徹底刪除或模型參數(shù)泄露隱私保護、安全(3)系統(tǒng)(決策方式)當前階段,人工智能系統(tǒng)既承繼了以往信息技術(shù)的倫理問題,又受到數(shù)據(jù)和算法風險的影響。由于人工智能在社會生產(chǎn)生活的各個環(huán)節(jié)日益廣泛應用,人工智能系統(tǒng)固有的不透明性、低可解釋性等特征,再加上系統(tǒng)漏洞、設計缺陷等風險,可能引發(fā)個人信息等數(shù)據(jù)泄露、工業(yè)生產(chǎn)線停止等社會問題,威脅個人權(quán)益、社會秩序、國家安全等。因此,人工智能系統(tǒng)可能在諸多方面帶來一系列倫理風險,主要包括以下方面:人工智能系統(tǒng)的缺陷和價值設定問題可能帶來公民生命權(quán)、健康權(quán)的威脅,人工智能系統(tǒng)的濫用也可能威脅人身安全以及個人信息隱私權(quán)。比如,人工智能武器的濫用可能在世界范圍內(nèi)加劇不平等,威脅人類生命與世界和平;人工智能在工作場景中的濫用可能影響勞動者權(quán)益,并且人工智能對勞動者的替代可能引發(fā)大規(guī)模結(jié)構(gòu)性失業(yè)的危機,帶來勞動權(quán)或就業(yè)機會方面的風險。(4)人為因素人為因素主要體現(xiàn)在人為造成的算法歧視,主要分為兩種:一種是由算法設計者造成的算法歧視,另一種是由用戶造成的算法歧視。算法設計者造成的算法歧視,是指算法設計者為了獲得某些利益,或者為了表達自己的一些主觀觀點而設計存在歧視性的算法。這是因為算法的設計目的、數(shù)據(jù)運用、結(jié)果表征等都是開發(fā)者、設計者的主觀價值與偏好選擇,算法設計者是否能夠?qū)⒓扔蟹煞ㄒ?guī)或者道德規(guī)范編寫進程序指令中本身就值得懷疑。而設計開發(fā)者可能會把自己持有的偏見與喜好嵌入或固化到智能算法之中。這會使人工智能算法通過學習把這種歧視或傾向進一步放大或者強化,從而產(chǎn)生算法設計者想要的并帶有歧視性的結(jié)果,最終導致基于算法的決策帶有偏見。由用戶造成的算法歧視,主要產(chǎn)生于需要從與用戶互動的過程中進行學習的算法,由于用戶自身與算法的交互方式,而使算法的執(zhí)行結(jié)果產(chǎn)生了偏見。這是因為在運行過程中,當設計算法向周圍環(huán)境學習時,它不能決定要保留或者丟棄哪些數(shù)據(jù)、判斷數(shù)據(jù)對錯,而只能使用用戶提供的數(shù)據(jù)。無論這些數(shù)據(jù)是好是壞,它都只能依據(jù)此基礎(chǔ)做出判斷。人工智能倫理風險來自人工智能技術(shù)經(jīng)過工程轉(zhuǎn)化并進入具體場景形成人工智能技術(shù)應用后對人工智能倫理準則的沖擊,人工智能倫理風險責任主體根據(jù)國家《新一代人工智能倫理規(guī)范》具體分為技術(shù)主體(對應研發(fā)活動)、應用主體(對應供應活動和使用活動),以及管理主體。結(jié)合本指南第三章節(jié)對人工智能倫理準則的分析,人工智能倫理風險分類識別與分析矩陣如圖2所示。人工智能倫理風險具體分為應用型、技術(shù)型和(技術(shù)應用)混合型三類人工智能倫理風險,分別面向不同的風險責任主體。人工智能倫理風險主要治理原則對應第三章節(jié)所列的十大人工智能倫理準則,對號代表各倫理風險類別所需要主要考慮的治理準則,其中:人工智能倫理風險分類識別與分析矩陣人工智能倫理風險分類識別與分析矩陣人工智能倫理風險類別人工智能倫理人工智能倫理風險主要治理原則風險責任主體以人可持隱私公平共享合作可問透明主動被動為本續(xù)性責性安全安全—原生型(技術(shù)型衍生型(應用型共生型(混合型)管理主體圖2人工智能倫理風險分析矩陣(1)應用型人工智能倫理風險定義為:在人工智能技術(shù)應用過程中,由于人工智技術(shù)的工具放大效應,使得應用場景中的原有倫理共識中已經(jīng)接受的倫理問題產(chǎn)生放大或者變形。這類問題并不是人工智能技術(shù)本身的問題,而是技術(shù)應用帶來的衍生效應。例如:智能教育過程中人工智能學習工具的使用,將人類社會原有的“數(shù)字鴻溝”推向“智能鴻溝”,進一步擴大了教育公平問題甚至加劇了社會的不平等。對于衍生型倫理風險,主要從以人為本、可持續(xù)性、隱私、共享、合作和公平這六個倫理準則的維度進行具體分析。應用型倫理風險的責任主體主要是應用主體和管理主體,分別指從事人工智能產(chǎn)品與服務相關(guān)的生產(chǎn)、運營、銷售、采購、消費、操作等供應活動和使用活動的自然人、法人和其他相關(guān)機構(gòu)等,和從事指人工智能相關(guān)的戰(zhàn)略規(guī)劃、政策法規(guī)和技術(shù)標準制定實施,資源配置以及監(jiān)督審查等管理活動的自然人、法人和其他相關(guān)機構(gòu)等。對此,應用主體應在供應方面尊重市場規(guī)則、保障用戶權(quán)益,在使用發(fā)面避免濫用誤用、積極提高使用能力;管理主體應推動敏捷治理、積極實踐示范、正確行權(quán)用權(quán)、促進包容開放。(2)技術(shù)型人工智能倫理風險定義為:由于人工智能技術(shù)自身路線與發(fā)展特點的倫理治理問題,由此帶來的倫理風險通常與人工智能的技術(shù)特征直接相關(guān),是人工智能技術(shù)應用給人類社會治理拓展的新的倫理邊界。例如:深度學習技術(shù)應用于智能駕駛領(lǐng)域的環(huán)境感知和行為決策,現(xiàn)階段其感知和決策結(jié)果的不可解釋性導致駕駛者和乘客難以安心使用,也影響著其他交通參與者的安全,比如輔助駕駛系統(tǒng)突如其來的莫名剎車。對人工智能技術(shù)應用的信任程度及其原理解釋問題成為新的人機物的關(guān)系問題,是典型的原生型倫理風險。對于原生型倫理風險,主要從可問責性和透明兩個倫理準則的維度進行具體分析。技術(shù)型倫理風險的責任主體主要是技術(shù)主體,指的是從事人工智能相關(guān)的科學研究、技術(shù)開發(fā)、產(chǎn)品研制等研發(fā)活動的自然人、法人和其他相關(guān)機構(gòu)等。對此,技術(shù)主體應加強技術(shù)研發(fā)和治理,逐步實現(xiàn)對人工智能技術(shù)的可驗證、可審核、可監(jiān)督、可追溯、可預測、可信賴。(3)(技術(shù)應用)混合型人工智能倫理風險定義為:由于人工智能技術(shù)在場景中的應用,使得安全這一固有的倫理共識被技術(shù)本身的特征與技術(shù)的場景應用共同影響,改變了人類對安全這一倫理價值的認知。即人工智能技術(shù)應用一方面增加了對安全程度的需求,另一方面也為安全新增了需要考慮的方面,最終形成技術(shù)型與應用型倫理風險交互、混合的情況。例如:知識圖譜技術(shù)相關(guān)應用在提高了數(shù)據(jù)安全程度要求的同時,也新增了防范知識投毒方面的安全維度要求。對于混合型倫理風險,主要從主動安全和被動安全兩個倫理準則的維度進行具體分析,其責任主體包括技術(shù)主體、應用主體和管理主體。對此,技術(shù)主體應積極增強人工智能系統(tǒng)的韌性和抗干擾能力;應用主體在供應方面應加強質(zhì)量管控,在使用方面禁止違規(guī)惡用;管理主體應加強風險防范。對人工智能倫理風險進行分類識別的目的是,有助于各責任主體和利益相關(guān)方清晰認識人工智能倫理風險產(chǎn)生的原因,并有助于各方進一步理解人工智能倫理風險與傳統(tǒng)倫理問題的區(qū)別和聯(lián)系,明確各責任主體的責任。進而,在人工智能倫理風險對倫理準則產(chǎn)生影響的維度上進行具體分析,有助于指導和促進人工智能技術(shù)和技術(shù)應用合乎倫理的研發(fā),并有助于各方用好人工智能技術(shù)。本章節(jié)后續(xù)部分將選取典型場景,對其中的代表性人工智能技術(shù)應用產(chǎn)生的倫理風險進行分析。同時,附錄1借鑒ISO/IECTR24368,為各方提供了一份構(gòu)建和使用符合倫理設計的人工智能的非詳盡考慮事項清單,可作為組織管理過程或信息系統(tǒng)審計中的部分參考,旨在減輕人工智能技術(shù)應用全生命周期中的倫理風險。本小節(jié)將選取自動駕駛、智能媒體、智能醫(yī)療、只能電商、智能教育和科學智能等6個典型場景,使用上述人工智能倫理風險分類識別和分析矩陣,對場景中人工智能技術(shù)應用的倫理風險進行分析,在人工智能技術(shù)和技術(shù)應用的管理、研發(fā)、供應和使用中作為積極的構(gòu)成要素,有助于在人工智能技術(shù)應用的倫理風險發(fā)生前預判、規(guī)避和化解。自動駕駛自動駕駛即指車輛在搭載先進傳感器、控制器、執(zhí)行器的基礎(chǔ)上,在特定的設計運行范圍內(nèi),能自主獲取和分析車內(nèi)外信息,持續(xù)地處理部分或全部動態(tài)駕駛?cè)蝿眨▎诬囍悄芎蛙嚶吩粕疃葏f(xié)同等。自動駕駛是人工智能技術(shù)最受社會公眾關(guān)注的應用場景之一。第一類技術(shù)型倫理風險的代表,是環(huán)境感知、行為決策和運動控制等自動駕駛應用對可問責性這一倫理準則的影響。自動駕駛的終極目標是自主決策實現(xiàn)無人駕駛,但由于道路、行人和天氣情況的復雜多變,計算機視覺算法的不夠成熟可靠,以及目前傳感設備識別能力有限等問題,導致現(xiàn)階段自動駕駛汽車事故頻發(fā)。事故原因多元而難以追溯,并且現(xiàn)有的制度規(guī)范也未建立完善,為自動駕駛新增了問責困難的倫理風險。第二類應用型倫理風險的代表,首先是自動駕駛汽車的操控權(quán)和自主決策行為對以人為本、合作和公平等倫理準則的影響。自動駕駛系統(tǒng)對車主操控權(quán)的適時歸還以及車主的適當使用等問題已經(jīng)引發(fā)了倫理爭議。面對“電車難題”等不可避免的道德困境,自動駕駛系統(tǒng)代替人類做出的選擇,可能隱含著數(shù)據(jù)、算法、系統(tǒng)和人為歧視,并可能把個體的偏差放大到社會面。此外,由于不同國家和地區(qū)的文化背景和價值觀不同,自動駕駛系統(tǒng)很難有一個普適的道德責任框架,這對國際合作和統(tǒng)一提出了挑戰(zhàn)。其次是駕駛數(shù)據(jù)包括導航數(shù)據(jù)對隱私這一倫理準則產(chǎn)生的影響,主要是座艙數(shù)據(jù)對駕駛員和乘員的人臉、聲紋、指紋等生物識別特征數(shù)據(jù)的采集。車外數(shù)據(jù)對交通參與者人臉和車牌等個人信息的采集,以及導航數(shù)據(jù)對行駛軌跡的采集,也侵犯了其他交通參與者的隱私。第三類混合型倫理風險的代表,是駕駛數(shù)據(jù)、車聯(lián)網(wǎng)和車路協(xié)同對主動安全和被動安全兩大倫理準則的而影響。海量駕駛數(shù)據(jù)的價值已然巨大,而重要敏感區(qū)域的地理信息、車輛流量、汽車充電網(wǎng)等能夠反映經(jīng)濟運行情況的數(shù)據(jù)更關(guān)系到國家安全和公共利益,對安全提出了更高要求。此外,車聯(lián)網(wǎng)和車路云協(xié)同使得黑客能夠遠程操控、影響和攻擊車輛,影響道路交通安全,并衍生高科技犯罪和破壞公共安全的倫理風險。智能媒體智能媒體場景關(guān)注人工智能技術(shù)在社交媒體方面的應用,能夠提高信息傳播效率、人機交互體驗、內(nèi)容質(zhì)量與豐富程度。人工智能技術(shù)對社交媒體的賦能也帶來了倫理風險。第一類技術(shù)型倫理風險的代表,是智能內(nèi)容處理和生成應用對可問責性和透明兩大倫理準則的影響。深度合成技術(shù)特別是深度偽造的發(fā)展帶來了虛假信息甚至虛假賬號的可能性,使得海量的音視頻和圖像需要接受檢測。因此,這些深度合成的內(nèi)容通過各類社交媒體傳播,導致信息本身和信息發(fā)布者的失真與難以分辨。進而,這些虛假信息可能衍生其他領(lǐng)域的倫理風險,比如影響公安領(lǐng)域的網(wǎng)絡輿情監(jiān)控有效性、導致特定人員聲譽受損等。第二類應用型倫理風險的代表,是智能網(wǎng)絡社交應用對以人為本、公平和隱私等倫理準則的影響。網(wǎng)絡社交的興起使得原本只在家人朋友和同事鄰里之間分享的私密生活,可以被用戶線上展示分享并收獲關(guān)注。但這首先帶來了隱私泄露的倫理風險。其次,社交平臺的推薦算法應用可能驅(qū)動這些內(nèi)容甚至隱私向更多人開放,縮短了被他人獲取和分析的鏈條,可能加劇造謠、污蔑、歧視甚至網(wǎng)絡暴力等倫理風險,并衍生如高科技犯罪、詐騙和破壞社會信任關(guān)系等倫理風險。最后,社交平臺的推薦算法機制可能使得傷害性和反智性言論更易擴散,并加劇“信息繭房”、“回音室”以及群體極化等倫理風險。第三類混合型倫理風險的代表,是海量社交數(shù)據(jù)以及敏感信息對主動安全和被動安全兩大倫理準則的影響。一方面,海量社交數(shù)據(jù)的產(chǎn)生對數(shù)據(jù)和網(wǎng)絡安全提出更高要求。另一方面,一些政治或經(jīng)濟相關(guān)虛假信息的傳播,信息推送中特定詞語插入對用戶情緒和行為的干預與誘導,以及機密信息的泄露和擴散,也可能造成意識形態(tài)和社會輿論方面的倫理風險,甚至威脅國家安全。智能醫(yī)療智能醫(yī)療場景是人工智能技術(shù)在醫(yī)學場景的賦能與應用。醫(yī)學自身已是一個倫理敏感的場景,對于人工智能技術(shù)應用于醫(yī)學,極有可能放大或變形傳統(tǒng)醫(yī)學場景的倫理風險、新增或產(chǎn)生混合的倫理風險,需要特別關(guān)注。第一類技術(shù)型倫理風險的代表,是智能手術(shù)機器人和智能醫(yī)學影像分析等涉及自主能動性的人工智能應用對可問責性這一倫理準則的影響。在智能手術(shù)機器人協(xié)助手術(shù)過程中因為醫(yī)生操控失誤或機器故障引起的醫(yī)療事故,現(xiàn)階段仍沒有對如何劃分責任形成共識。智能醫(yī)學影像分析等“AI+醫(yī)療”技術(shù)亦存在類似的責任劃分困境,其分析結(jié)果對醫(yī)生的正確判斷可能產(chǎn)生的影響必須納入考慮。第二類應用型倫理風險的代表,首先是腦機接口應用對以人為本這一倫理準則的影響。腦機接口是人工智能和醫(yī)學的代表性交叉技術(shù),由于直接作用于人體,可能造成對大腦組織的創(chuàng)傷和感染,其安全和倫理風險和爭議較大。另一方面,未來可能發(fā)生的黑客攻擊和意念控制將導致人類自由意志受到巨大威脅,更是將有關(guān)人腦的手術(shù)對自由意志的可能影響的倫理風險進行了極度放大或變形。其次是可穿戴式設備、智能醫(yī)療信息平臺等對隱私、共享和公平等倫理準則的影響。隨著現(xiàn)代人對日常健康監(jiān)測重視,這些設備或平臺大量采集人體的生物特征數(shù)據(jù)并進行分析處理、輔助診斷和醫(yī)學研究。使用者難以保障數(shù)據(jù)的刪除權(quán)、存儲權(quán)、使用權(quán)和知情權(quán),且由于這些數(shù)據(jù)多是生理信息而顯得更為敏感,將對患者隱私的侵犯可能性進行了放大。另外,智能醫(yī)療設備的高昂費用和使用門檻,也放大了原本的數(shù)字鴻溝和醫(yī)療資源不均衡等問題,對共享和公平兩大倫理準則產(chǎn)生進一步影響。第三類混合型倫理風險的代表,是人工智能驅(qū)動的人類增強應用對主動安全和被動安全兩大倫理準則的影響,腦機接口技術(shù)也在此列。可能的黑客攻擊和干擾、數(shù)據(jù)竊取等對相關(guān)設備聯(lián)網(wǎng)的主動安全提出了要求,而相關(guān)設備對人腦或人體的直接接觸和影響也對其可控性、可靠性和魯棒性等被動安全提出了要求。智能電商智能平臺場景主要是人工智能技術(shù)賦能的電商和服務平臺,能夠為消費者在線提供各類產(chǎn)品和服務,做到個性化、精準化和高效化。第一類技術(shù)型倫理風險的代表,是推薦系統(tǒng)對可問責性這一倫理準則的影響。由于用戶一般只關(guān)注推薦排名靠前的商品,不良商家能夠通過推薦和排序算法背后的一系列操作獲得優(yōu)先推薦的機會,可能導致電商平臺陷入倫理爭議并形象敗壞。同時,平臺和商家的責任劃分,甚至消費者如何選擇,均引發(fā)倫理爭議。第二類應用型倫理風險的代表,是推薦系統(tǒng)和智能調(diào)度系統(tǒng)等人工智能技術(shù)應用對以人為本、共享、公平和隱私等倫理準則的影響。一方面,電商平臺使用的算法可能過度誘導消費并導致“信息繭房”,用戶被反復加強和固化的消費偏好也可能破壞市場的有序競爭和創(chuàng)新活力。另一方面,平臺可能根據(jù)用戶的歷史交易記錄、交易習慣等特征,甚至“竊聽”或“監(jiān)視”聊天記錄,利用算法在價格等方面實施不合理的差別待遇或進行針對性推送,造成不公平競爭甚至欺詐行為。如近年來被廣泛曝光的“大數(shù)據(jù)殺熟”現(xiàn)象,便嚴重違反了消費者的合法權(quán)益,破壞了市場秩序。而服務平臺則主要依靠智能調(diào)度系統(tǒng)為消費者提供各類服務如外賣、跑腿和用車等,雖然提高了效率,但缺失了人性關(guān)懷的溫度,可能導致在算法控制與歸訓下的員工陷入為按時完成任務而采取違規(guī)違法行為的倫理困境,對自身、平臺和公眾均產(chǎn)生風險隱患。第三類混合型倫理風險的代表,是消費數(shù)據(jù)和管制物品流通對主動安全和被動安全兩大倫理準則的影響。一方面,海量且全面消費數(shù)據(jù)能夠反映國家經(jīng)濟發(fā)展運行態(tài)勢;另一方面,多樣的電商平臺伴隨著現(xiàn)代物流服務,使得槍支、入侵生物、危化品等管制物品的流通難度和成本降低,且提高了監(jiān)管和追繳難度。這些均對國土安全、經(jīng)濟安全等提出了主動安全和被動安全方面的更高要求。智能教育智能教育是人工智能技術(shù)在教育領(lǐng)域應用產(chǎn)生的新形態(tài),有望對教育技術(shù)、教育目標、教育理念以及教育治理等產(chǎn)生變革性影響。教育是社會發(fā)展的動力源泉,智能教育場景的倫理風險需要進一步重視。第一類技術(shù)型倫理風險在智能教育場景尚未凸顯,現(xiàn)階段主要體現(xiàn)在算法黑箱對透明這一倫理準則的影響。第二類應用型倫理風險的代表,首先是智能化學習和評價應用對以人為本和公平等倫理準則的影響。學習者的獨立思考和教育者的評價、關(guān)懷,對學習者的學習成效和積極性非常重要。但智能學習內(nèi)容推薦應用可能導致學習者遭遇“信息繭房”而使知識結(jié)構(gòu)和認知的片面化;“拍照搜題”可能惰化學習者思維和獨立思考能力,違背教育教學規(guī)律等問題。智能教育缺失了教育的人文關(guān)懷,也可能因數(shù)據(jù)、算法或人為歧視而放大原本的人工偏差。其次
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年高效能玻璃鋼化糞池采購協(xié)議范本版B版
- 2024自用房屋租賃合同
- 2025年違約借款合同糾紛解決途徑3篇
- 二零二五年度新能源汽車OEM制造與零部件供應合同3篇
- 2025廠房土地買賣合同中對環(huán)境友好型建筑標準的約定3篇
- 2025年度森林資源管理與測繪合同范本3篇
- 2024網(wǎng)絡安全與信息保密合同
- 二零二四三方詢價采購合同-國際物流運輸服務采購2篇
- 2024石料礦山資源整合與開采合同3篇
- 二零二五版全國CHS技術(shù)交流與合作合同3篇
- 勞務投標技術(shù)標
- 研發(fā)管理咨詢項目建議書
- 濕瘡的中醫(yī)護理常規(guī)課件
- 轉(zhuǎn)錢委托書授權(quán)書范本
- 一種配網(wǎng)高空作業(yè)智能安全帶及預警系統(tǒng)的制作方法
- 某墓園物業(yè)管理日常管護投標方案
- 蘇教版六年級數(shù)學上冊集體備課記載表
- NUDD新獨難異 失效模式預防檢查表
- 內(nèi)蒙古匯能煤電集團有限公司長灘露天煤礦礦山地質(zhì)環(huán)境保護與土地復墾方案
- 22S702 室外排水設施設計與施工-鋼筋混凝土化糞池
- 2013日產(chǎn)天籟全電路圖維修手冊45車身控制系統(tǒng)
評論
0/150
提交評論