AI人工智能技術(shù)倫理觀報告-騰訊研究院_第1頁
AI人工智能技術(shù)倫理觀報告-騰訊研究院_第2頁
AI人工智能技術(shù)倫理觀報告-騰訊研究院_第3頁
AI人工智能技術(shù)倫理觀報告-騰訊研究院_第4頁
AI人工智能技術(shù)倫理觀報告-騰訊研究院_第5頁
已閱讀5頁,還剩23頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、執(zhí)行摘要隨著人工智能的發(fā)展應用,智能時代的大幕正在拉開,無處不在的數(shù)據(jù)和算法正在催生一種新型的人工智能驅(qū)動的經(jīng)濟和社會形式。與此同時,隱私保護、虛假信息、網(wǎng)絡安全、網(wǎng)絡犯罪、電子產(chǎn)品過度使用等問題成為全球關(guān)注焦點。旨在對科技行業(yè)的狹隘的技術(shù)向度和利益局限進行糾偏和矯正的人工智能倫理開始從幕后走到前臺,正如華裔 AI 科學家李飛飛所言,要讓倫理成為人工智能研究與發(fā)展的根本組成部分。在此背景下,從政府到行業(yè)再到學術(shù)界,全球掀起了一股探索制定人工智能倫理原則的熱潮,歐盟、德國、英國、OECD、G20、IEEE、谷歌、微軟等諸多主體從各自的角度提出了相應的人工智能倫理原則,共同促進 AI 知識的共享和

2、可信 AI 的構(gòu)建。要言之, 各界已經(jīng)基本達成共識,人工智能的發(fā)展離不開對倫理的思考和倫理保障。從最早的計算機到后來的信息再到如今的數(shù)據(jù)和算法,伴隨著技術(shù)倫理的關(guān)注焦點的轉(zhuǎn)變,技術(shù)倫理正在邁向一個新的階段。為此, 我們提出新的技術(shù)倫理,探索技術(shù)、個人、社會三者之間的平衡。包含三個層面:技術(shù)信任,人工智能等新技術(shù)需要價值引導,做到可用、可靠、可知、可控(“四可”);個體幸福,確保人人都有追求數(shù)字福祉、幸福工作的權(quán)利,在人機共生的智能社會實現(xiàn)個體更自由、智慧、幸福的發(fā)展;社會可持續(xù),踐行“科技向善”,發(fā)揮好人工智能等新技術(shù)的巨大“向善”潛力,善用技術(shù)塑造健康包容可持續(xù)的智慧社會。目錄 HYPERL

3、INK l _bookmark0 引言:智能時代迫切需要面向數(shù)據(jù)和算法的技術(shù)倫理1 HYPERLINK l _bookmark1 (一)人工智能引領(lǐng)第四次工業(yè)革命加速變革經(jīng)濟社會1 HYPERLINK l _bookmark2 (二)人工智能的潛力和價值巨大,但也帶來需要積極應對的問題和挑戰(zhàn)2 HYPERLINK l _bookmark3 (三)各界高度重視人工智能倫理,多舉措促進新技術(shù)健康發(fā)展4 HYPERLINK l _bookmark4 (四)探索智能時代的技術(shù)倫理觀:信任、幸福與可持續(xù)8 HYPERLINK l _bookmark5 一、信任(trust):人工智能需要價值引導 10

4、HYPERLINK l _bookmark6 (一)以人工智能“四可”原則促進人工智能信任12 HYPERLINK l _bookmark7 (二)構(gòu)建塑造人工智能信任的規(guī)則體系16 HYPERLINK l _bookmark8 二、幸福(happiness):智能社會人機共生 19 HYPERLINK l _bookmark9 (一)人人都有追求數(shù)字福祉的權(quán)利19 HYPERLINK l _bookmark10 (二)人人都有幸福工作的權(quán)利21 HYPERLINK l _bookmark11 三、可持續(xù)(sustainability):踐行“科技向善”,塑造健康包容可持續(xù)的智慧社會 HYPE

5、RLINK l _bookmark11 . 23 HYPERLINK l _bookmark12 結(jié)論:以智能時代的技術(shù)倫理重塑數(shù)字社會的信任25引言:智能時代迫切需要面向數(shù)據(jù)和算法的技術(shù)倫理(一)人工智能引領(lǐng)第四次工業(yè)革命加速變革經(jīng)濟社會互聯(lián)網(wǎng)的前三十年,是一個連接一切的故事,從連接人到連接商業(yè)再到連接萬事萬物,互聯(lián)網(wǎng)技術(shù)以前所未有的速度和規(guī)模改變著人類和人類社會。截至 2019 年 3 月 31 日,全球網(wǎng)民規(guī)模達到 43.8 億, 占世界總?cè)丝?56.8%。中國以逾 8 億網(wǎng)民規(guī)模成為全球最大互聯(lián)網(wǎng)市場,個人應用、產(chǎn)業(yè)應用、政府應用等各類互聯(lián)網(wǎng)應用蓬勃發(fā)展,為人們創(chuàng)造著效率和便利。連接帶

6、來的創(chuàng)新,提升了個體生活,促進了經(jīng)濟發(fā)展與社會進步。在這一發(fā)展過程中,互聯(lián)網(wǎng)行業(yè)始終引領(lǐng)創(chuàng)新發(fā)展的浪潮。再者,人工智能(包括未來可能出現(xiàn)的強人工智能和超人工智能)、機器人、大數(shù)據(jù)、物聯(lián)網(wǎng)、區(qū)塊鏈、云計算、虛擬現(xiàn)實、基因編輯、腦機接口、3D 打印等新技術(shù)集群加速涌現(xiàn)和發(fā)展,有望引領(lǐng)第四次工業(yè)革命。尤其是人工智能,有望像歷史上的火種和電力一樣,重塑人 類生活和人類社會的未來加速的自動化和智能化,無處不在的連 接,物理與數(shù)字世界的融合,甚至人類與技術(shù)的融合。我們正在步入 高度依賴技術(shù)的社會,生物層、物理層、技術(shù)層有可能融合成為三位 一體。未來,包括企業(yè)在內(nèi)的所有組織機構(gòu)都會數(shù)字化、智能化。智能時代的

7、大幕正在拉開,在其中,無處不在的數(shù)據(jù)和算法正在催生一種新型的人工智能驅(qū)動的經(jīng)濟和社會形式。人們常以“數(shù)據(jù)化”“智能化”“算法決定論”等詞匯描述這一趨勢,但核心都是一樣:人工智能算法正在改變這個世界。比如,算法已在決定向你展示的廣告、新聞資訊等數(shù)字內(nèi)容,可以評估你能否得到面試機會、獲得貸款、拿到救助金等,還能預測犯罪、犯罪人的危險性等。當然,人工智能的應用并不局限于這些方面?;诖罅康臄?shù)據(jù),人工智能有潛力做出比人類更優(yōu)的預測和決策,比如自動駕駛有望比人類駕駛更安全,智能醫(yī)療影像診斷比醫(yī)生的診斷結(jié)果更準確,智能語音識別的出錯率也比速記員更低。人工智能是一項通用技術(shù),只要有數(shù)據(jù),就有望普遍應用于各行

8、各業(yè),進而提高生產(chǎn)力并促進經(jīng)濟增長。(二)人工智能的潛力和價值巨大,但也帶來需要積極應對的問題和挑戰(zhàn)以人工智能為代表的這一輪新技術(shù)無疑擁有巨大的潛力和價值, 值得在研發(fā)和應用上持續(xù)投入,但任何有望變革人類社會的新技術(shù)都必然會帶來社會倫理影響。例如,互聯(lián)網(wǎng)技術(shù)帶來的用戶隱私、虛假信息、算法“黑盒”、網(wǎng)絡犯罪、電子產(chǎn)品過度使用等問題已經(jīng)成為全球關(guān)注焦點,引發(fā)全球范圍內(nèi)對互聯(lián)網(wǎng)技術(shù)及其影響的反思和討論, 探索如何讓新技術(shù)帶來個人和社會福祉的最大化。此外,2018 年底發(fā)生的基因編輯嬰兒事件在國內(nèi)外引發(fā)激烈的倫理爭議。人工智能也是如此,其在隱私、歧視、安全、責任、就業(yè)等經(jīng)濟、倫理和社會方面的問題正在顯

9、現(xiàn)。未來可能出現(xiàn)的通用人工智能和超級人工智能則可能帶來更深遠而廣泛的安全、倫理等影響。隱私方面,F(xiàn)acebook-劍橋分析數(shù)據(jù)丑聞引爆了社會對數(shù)據(jù)的泄露、不正當二次利用、濫用等問題的擔憂,而這些問題已是現(xiàn)今互聯(lián)網(wǎng)用戶普遍面臨的問題很多應用軟件會過度收集非必需的用戶數(shù)據(jù)、冗長的“用戶須知”或“使用協(xié)議”誘導用戶授權(quán)廠商過度使用甚至出售用戶數(shù)據(jù)等。此外,不法分子利用人工智能技術(shù),可以非法竊取、識別個人信息,甚至影響、操縱用戶行為和認知。歧視方面,“大數(shù)據(jù)殺熟”成為 2018 年度社會生活類十大流行語之一,反映了人們對算法歧視的擔憂,滴滴、攜程、飛豬等都被質(zhì)疑大數(shù)據(jù)殺熟。此外,語音識別、人臉識別、精

10、準廣告工具等算法應用都可能存在偏見和歧視,甚至還曾引發(fā)了訴訟。安全方面,自動駕駛汽車的安全問題尤其引人關(guān)注:Uber 的自動駕駛汽車在測試過程中撞死行人、特斯拉的 Autopilot 系統(tǒng)在運行過程中造成致命事故。人工智能在事關(guān)健康安全的醫(yī)療領(lǐng)域也出現(xiàn)過問題,比如 IBM 的“沃森醫(yī)生”給出過“不安全且錯誤”的癌癥治療建議。除了人工智能系統(tǒng)本身可能不完善的問題,人工智能還面臨著被外部攻擊風險,比如圖像識別和語音識別技術(shù)的對抗攻擊問題一直都是相關(guān)應用頭頂上的一片烏云,自動駕駛汽車和智能家居等連接網(wǎng)絡的物理設(shè)備也存在被網(wǎng)絡遠程干擾或操控的風險。此外,人工智能還可能被用作攻擊手段比如用于生成虛假視頻

11、和圖像(所謂的deepfake 即深度偽造),生產(chǎn)和傳播假新聞,甚至被用于攻擊人工智能系統(tǒng)。責任方面,人工智能算法由于可能存在不透明、不可理解、不可解釋等特性,在事故責任認定和分配上也存在有待討論的法律難題, 比如由于行人橫穿公路而造成交通事故時自動駕駛汽車運營方是否應該承擔責任、智能監(jiān)控攝像頭廠商是否應該為攝像頭被網(wǎng)絡攻擊的問題負責。就業(yè)方面,人工智能可能造成大規(guī)模失業(yè)的風險一直備受社會關(guān)注,甚至有人認為人工智能的普及將會在人類社會中產(chǎn)生一批史無前例的“無用階層”;但同時也有人認為,與過去的蒸汽機和計算機等技術(shù)一樣,新技術(shù)在奪走一部分工作崗位的同時也會創(chuàng)造更多更好的新型工作崗位。所以,人工智

12、能對勞動力市場的長遠影響究竟是積極的、消極的還是中立的,目前還很難預測。盡管如此,已經(jīng)有一些政府機構(gòu)和研究者在思考和探索潛在的解決方案了,比如全民基本收入以及教育改革等。(三)各界高度重視人工智能倫理,多舉措促進新技術(shù)健康發(fā)展總體來看,我們現(xiàn)在就有必要對人工智能等新技術(shù)進行更多的人文和倫理思考,正如華裔 AI 科學家李飛飛所言,要讓倫理成為人工智能研究與發(fā)展的根本組成部分。因為正如基辛格所言,面對人工智能的興起,人們在哲學、倫理、法律、制度、理智等各方面都還沒做好準備,因為人工智能等技術(shù)變革正在沖擊既有的世界秩序,我們卻無法完全預料這些技術(shù)的影響,而且這些技術(shù)可能最終會導致我們的世界所依賴的各

13、種機器為數(shù)據(jù)和算法所驅(qū)動且不受倫理或哲學規(guī)范約束。顯然,在當前的人工智能等新技術(shù)背景下,我們比歷史上任何時候都更加需要“科技向善”理念,更加需要技術(shù)與倫理的平衡,以便確保新技術(shù)朝著更加有利于人類和人類社會的方向發(fā)展。一方面,技術(shù)意味著速度和效率,要發(fā)揮好技術(shù)的無限潛力,善用技術(shù)追求效率, 創(chuàng)造社會和經(jīng)濟效益。另一方面,人性意味著深度和價值,要追求人性,維護人類價值和自我實現(xiàn),避免技術(shù)發(fā)展和應用突破人類倫理底線。因此,只有保持警醒和敬畏,在以效率為準繩的“技術(shù)算法”和以倫理為準繩的“人性算法”之間實現(xiàn)平衡,才能確保“科技向善”。因此,對倫理的強調(diào)和重視成為了當前人工智能領(lǐng)域的一大主旋律,社會各界

14、紛紛制定相應的倫理準則或框架。例如,德國于 2017 年為自動駕駛汽車提出了 20 條倫理原則。英國已經(jīng)成立了數(shù)據(jù)倫理中心,視倫理為人工智能創(chuàng)新的核心之一并考慮制定普適的人工智能倫理框架。歐盟人工智能戰(zhàn)略的三大支柱之一即是確保歐盟具有與人工智能發(fā)展和應用相適應的法律和倫理框架,為此歐盟委員會已經(jīng)起草人工智能倫理指南。中國的人工智能頂層政策要求制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范。美國、加拿大、新加坡、印度、法國、意大利等國家和地區(qū)都有類似的規(guī)劃或政策。在國際層面,2019 年 5 月 22 日,OECD 成員國批準了人工智能原則即負責任地管理可信賴的 AI 的原則,該倫理原則總共有五項,包

15、括包容性增長、可持續(xù)發(fā)展和福祉,以人為本的價值和公平,透明性和可解釋,穩(wěn)健性和安全可靠,以及責任。2019 年 6 月 9 日,G20 批準了以人為本的 AI 原則, 主要內(nèi)容來源于 OECD 人工智能原則,相當于為 OECD 人工智能原則背書。這是首個由各國政府簽署的 AI 原則,有望成為今后的國際標準, 旨在以兼具實用性和靈活性的標準和敏捷靈活的治理方式推動人工智能發(fā)展。以歐盟為例,2019 年 4 月歐盟發(fā)布可信 AI 倫理指南(Ethics Guidelines for Trustworthy AI,以下稱“倫理指南”),提出了可信 AI 框架,包含三個層次:一是可信 AI 的根基,從

16、基本權(quán)利(尊重人類尊嚴,個體自由,尊重民主、正義和法治,平等、非歧視和團結(jié), 公民權(quán)利)出發(fā),提出 AI 必須遵循的四個倫理原則,即 AI 必須尊重人類自主性,必須防止造成損害或者不利地影響人類,必須確保公平, 必須透明(針對 AI 的能力和目的)、可解釋(針對 AI 作出的決定)。二是可信 AI 的實現(xiàn),從七項關(guān)鍵要求來衡量 AI 是否可信,即人類能動性和監(jiān)督,技術(shù)穩(wěn)健性和安全(包括安全能經(jīng)受攻擊,后備計劃和一般安全,準確性,可靠性和再生性),隱私和數(shù)據(jù)治理(包括尊重隱私,數(shù)據(jù)質(zhì)量和完整,數(shù)據(jù)訪問),透明性(包括可追溯,可解釋,信息透明),多樣性、非歧視和公平(包括避免不公平的偏見,普遍可用

17、的設(shè)計,利益攸關(guān)方的參與),社會和環(huán)境福祉,問責(包括可審計, 負面影響最小化及報告,權(quán)衡和救濟)。三是可信 AI 的評估,基于前述 7 項關(guān)鍵要求,倫理指南提出了試點性的可信 AI 評估清單。評估清單的目的在于為具體落實這些關(guān)鍵要求提供指引,幫助公司或組織內(nèi)不同層級如管理層、法務部門、研發(fā)部門、質(zhì)量控制部門、HR、采購、日常運營等共同確??尚?AI 的實現(xiàn)。歐盟委員會鼓勵所有利益攸關(guān)方落實這七項關(guān)鍵要求。在業(yè)內(nèi),電氣電子工程師學會(IEEE)已在推進制定人工智能倫理標準(即 IEEE P7000 系列標準)和認證框架,AI 白皮書合倫理設(shè)計(Ethically Aligned Design)

18、提出了八項基本原則。谷歌、微軟、Facebook、DeepMind 等科技公司也多舉措推進人工智能倫理研究,包括發(fā)起成立行業(yè)組織(比如 Partnership on AI)、成立倫理部門(比如 DeepMind 的倫理與社會部門,谷歌和微軟的倫理委員會)、提出人工智能倫理原則(比如谷歌的 7 條正面原則,包括 AI 應對社會有益,AI 應避免造成或加劇不公平歧視,AI 應安全可靠,AI 應對人們負責,AI 應融入隱私設(shè)計原則,AI 應維持高標準的學術(shù)卓越, AI應按照這些原則來使用;以及4 條底線涉及谷歌不從事的AI 應用, 包括可能造成普遍傷害的技術(shù),造成或直接促成人員傷亡的武器或其他技術(shù),

19、違反國際準則的監(jiān)控技術(shù),與國家法和人權(quán)原則相悖的技術(shù)。微軟的六大人工智能原則,公平:AI 系統(tǒng)應公平對待每一個人,可靠: AI 系統(tǒng)應可靠、安全地運行,隱私安全:AI 系統(tǒng)應是安全的并尊重隱私,包容:AI 系統(tǒng)應賦能每一個人并讓人們參與,透明:AI 系統(tǒng)應是可以理解的,責任:設(shè)計、應用 AI 系統(tǒng)的人應對其系統(tǒng)的運行負責)。要言之,各界已經(jīng)基本達成共識,人工智能的發(fā)展離不開對倫理的思考和倫理保障,以讓人工智能的發(fā)展和應用能夠遵循負責任的、安全的、普惠的實踐道路。因為我們正處在一個正在實現(xiàn)數(shù)據(jù)化和智能化的時代,所以當前強調(diào)的技術(shù)倫理主要面向數(shù)據(jù)和算法。在計算機與信息技術(shù)的發(fā)展史上,技術(shù)倫理經(jīng)歷了

20、三次重大轉(zhuǎn)變,每個階段都有其特殊的倫理問題并產(chǎn)生了相應的法律規(guī)制。第一階段的關(guān)注焦點是計算機,各國圍繞計算機的安全、犯罪、欺詐、濫用等問題制定了一系列法律,這個階段的典型立法包括美國 1984 年的計算機欺詐與濫用法案等。互聯(lián)網(wǎng)興起之后,技術(shù)倫理發(fā)展到第二階段,信息大爆炸趨勢下,信息成為關(guān)注焦點,法律規(guī)制圍繞信息的隱私、保護、傳播、濫用等問題展開,這個階段的立法包括歐盟 1995 年的個人數(shù)據(jù)保護指令、美國 1996 年的通信規(guī)范法等。當前,技術(shù)倫理已經(jīng)發(fā)展到了第三階段,作為關(guān)注焦點的數(shù)據(jù)和人工智能算法帶來新的倫理問題,預計將出現(xiàn)一系列人工智能法律,例如,歐盟的 GDPR 已經(jīng)針對人工智能應用

21、作出了一些制度安排,歐盟議會發(fā)布的算法責任與透明治理框架則在考慮建立算法治理框架。(四)探索智能時代的技術(shù)倫理觀:信任、幸福與可持續(xù)在人工智能倫理方面,騰訊公司董事會主席兼首席執(zhí)行官馬化騰在上?!?018 世界人工智能大會”上發(fā)表演講時指出,我們需要充分考慮未來人工智能發(fā)展可能帶來的社會影響,并從問題的角度思考未來人工智能如何做到可用、可靠、可知、可控。2019 年 3 月,馬化騰以全國人大代表的身份向全國人大提交建議案關(guān)于加強科技倫理建設(shè) 踐行科技向善理念的建議。馬化騰認為,科技倫理是創(chuàng)新驅(qū)動發(fā)展戰(zhàn)略、數(shù)字中國建設(shè)、數(shù)字時代商業(yè)競爭的重要保障。他呼吁在全社會、全行業(yè)積極倡導“科技向善”“負責

22、任創(chuàng)新”“創(chuàng)新與倫理并重”等理念。并建議加強科技倫理的制度化建設(shè),針對相關(guān)新技術(shù)制定倫理準則并積極參與、推動新技術(shù)領(lǐng)域的全球治理;加快研究數(shù)據(jù)、人工智能、基因編輯等新興技術(shù)領(lǐng)域的法律規(guī)則問題;加強科技倫理的教育宣傳并鼓勵全社會踐行“科技向善”理念。他在接受媒體采訪時表示,對于個人數(shù)據(jù)利用與隱私保護、個性化推薦算法的規(guī)制、AI、基因編輯等科技倫理、機器人的責任等前沿熱點問題,需要公眾、學界、業(yè)界、監(jiān)管部門等社會各界積極進行交叉學科、跨界的研究和研討,但對前沿技術(shù)的治理需要避免兩個極端:放任不管和過早過度監(jiān)管。以此為基礎(chǔ),在新的發(fā)展階段,我們提出新的技術(shù)倫理(technology ethics),

23、探索技術(shù)、個人、社會三者之間的平衡。就 AI 技術(shù)自身而言,AI 需要價值引導,應做到可用、可靠、可知、可控,從而讓人們可以信任 AI,讓 AI 可以給個人和社會創(chuàng)造價值。就AI 與個人之關(guān)系而言,幸福是人生的終極目的,需要構(gòu)建和諧的人機關(guān)系,保障個人的數(shù)字福祉和幸福工作權(quán)利,實現(xiàn)智能社會人機共生,讓個體更自由、智慧、幸福地生活和發(fā)展。就 AI 與社會之關(guān)系而言, AI 可以成為一股“向善”的力量,發(fā)揮出巨大的“向善”潛力,應當鼓勵社會各界踐行“科技向善”,助力經(jīng)濟社會健康包容可持續(xù)發(fā)展。一、信任(trust):人工智能需要價值引導如前所述,互聯(lián)網(wǎng)在過去二十多年中持續(xù)帶來的問題,連同最近的人工

24、智能等新技術(shù)帶來的倫理和社會影響,歸根結(jié)底是技術(shù)信任方面的挑戰(zhàn)。在人類的交往活動中,社會習俗、倫理道德、法律規(guī)范等構(gòu)建起來的信任機制,構(gòu)成人類合作、交易及表達不同意見的基礎(chǔ), 可以讓我們信任陌生人和陌生事物。我們常常將自己及至親的生命財產(chǎn)安全托付給陌生人(比如乘坐公共交通工具以及將錢存入銀行),正是由于這一社會信任機制的存在,而非相信“人性本善”。那么,如何讓人們同等地信任人工智能呢?現(xiàn)在人們無法完全信任人工智能,一方面是因為人們?nèi)狈ψ銐蛐畔?,對這些與我們的生活和生產(chǎn)息息相關(guān)的技術(shù)發(fā)展缺少足夠的了解;另一方面是因為人們?nèi)狈︻A見能力,既無法預料企業(yè)會拿自己的數(shù)據(jù)做什么,也無法預測人工智能系統(tǒng)的行

25、為。此外,AI 本身不夠可靠、AI 的可解釋性不夠、AI 提供商不值得信任等也是造成人們不信任 AI 的主要理由。所以, 當前迫切需要塑造包括 AI 信任在內(nèi)的數(shù)字信任,一般認為,數(shù)字信任體現(xiàn)在四個維度:一是安全的維度,產(chǎn)品服務安全可靠,包括網(wǎng)絡安全、個人隱私安全等;二是透明的維度,保障用戶的參與和知情;三是責任的維度,確保相關(guān)主體負責任地提供產(chǎn)品服務,并為其行為承擔責任;四是倫理的維度,秉持正確的價值觀,不作惡。就 AI 而言,雖然技術(shù)自身沒有道德、倫理的品質(zhì),但是開發(fā)、使用技術(shù)的人會賦予其倫理價值,因為基于數(shù)據(jù)做決策的軟件是人設(shè)計的,他們設(shè)計模型、選擇數(shù)據(jù)并賦予數(shù)據(jù)意義,從而影響我們的行為

26、。所以,這些代碼并非價值中立,其中包括了太多關(guān)于我們的現(xiàn)在和未來的決定。而在技術(shù)與社會生態(tài)系統(tǒng)互動的過程中,技術(shù)發(fā)展常常具有環(huán)境的、社會的和人類的影響,這些影響遠遠超過了技術(shù)設(shè)備和實踐自身的直接目的。因此,我們需要構(gòu)建能夠讓社會公眾信任人工智能等新技術(shù)的規(guī)制體系,讓技術(shù)接受價值引導。作為建立技術(shù)信任的起點,我們認為,人工智能等新技術(shù)的發(fā)展和應用需要遵循倫理原則。為此,秉持“負責任研究與創(chuàng)新” (responsible research and innovation)、“科技向善”等理念,我們進一步闡述“四可”原則,用以引導負責任地發(fā)展和應用工智能技術(shù),使其可以造福于人類和人類社會。并將“四可”

27、翻譯為“ARCC”(available,reliable,comprehensible,controllable,即 ARCC, 讀作 ark)。正如傳說中保存人類文明火種的諾亞方舟,人工智能的健康發(fā)展需要以“倫理方舟”為保障,確保將來友好、和諧、共生的人機關(guān)系。(一)以人工智能“四可”原則促進人工智能信任第一,可用(available)。發(fā)展人工智能的首要目的,是促進人類發(fā)展,給人類和人類社會帶來福祉,實現(xiàn)包容、普惠和可持續(xù)發(fā)展。為此,需要讓盡可能多的人可以獲取、使用人工智能,讓人們都能共享技術(shù)紅利,避免出現(xiàn)技術(shù)鴻溝。可用性,一方面意味著人工智能的發(fā)展應遵循以人為本的理念, 尊重人的尊嚴、權(quán)

28、利和自由以及文化多樣性,讓技術(shù)真正能夠為人們所用,給人們帶來價值。另一方面意味著人工智能與人類之間不是非此即彼的取代關(guān)系,而是可以成為人類的好幫手,增強人的智慧和創(chuàng)造力,實現(xiàn)和諧的人機關(guān)系。此外,可用性還意味著包容性,要求技術(shù)賦能于人,尤其是殘障人士等弱勢群體及少數(shù)族裔。確保公平正義,防止偏見和歧視,是可用性的一個基本要求。這意味著人工智能應公平、平等地對待每一個人,避免造成不公平歧視, 加劇或者固化社會不公平。一方面,應踐行“經(jīng)由設(shè)計的倫理”(ethics by design)理念,即將隱私、公平、安全、非歧視、福祉等倫理價值的保障融入到 AI 產(chǎn)品、服務的設(shè)計當中,確保算法的合理性和數(shù)據(jù)的

29、準確、時新、完整、相關(guān)、無偏見和代表性,并采取技術(shù)方式識別、解決和消除偏見。另一方面,應制定解決歧視和偏見的指南和原則, 并可通過倫理審查委員會等方式發(fā)現(xiàn)、解決潛在不公平歧視。第二,可靠(reliable)。人工智能應當是安全可靠的,能夠防范網(wǎng)絡攻擊等惡意干擾和其它意外后果,實現(xiàn)安全、穩(wěn)定與可靠。在該原則之下,一方面人工智能系統(tǒng)應當經(jīng)過嚴格的測試和驗證, 確保其性能達到合理預期;另一方面人工智能應確保數(shù)字網(wǎng)絡安全、人身財產(chǎn)安全以及社會安全。就數(shù)字網(wǎng)絡安全而言,可靠性意味著,人工智能應遵守隱私法律要求,加強隱私保護和數(shù)據(jù)安全,保障個人對數(shù)的控制,防止數(shù)據(jù)濫用。在技術(shù)上,人工智能應遵循“經(jīng)由設(shè)計的

30、隱私”( privacy by design)理念,采取加密、匿名化等技術(shù)措施加強隱私保護,探索隱私友好型的機器學習方法如聯(lián)邦學習(federated learning)。第三,可知(comprehensible)。人工智能應當是透明的、可解釋的,是人可以理解的,避免技術(shù)“黑盒”影響人們對人工智能的信任。人們對技術(shù)的信任來源于對技術(shù)的理解。然而,現(xiàn)代人工智能系統(tǒng)越來越成為一個“黑盒”,甚至有時連研發(fā)人員都無法理解他們的造物??茖W雜志將破解這一“黑盒”視為人工智能領(lǐng)域的重大難題,為此,研發(fā)人員需要致力于解決人工智能“黑盒”問題,實現(xiàn)可理解、可解釋的人工智能算法模型。為了實現(xiàn)可知性,不同主體如消費

31、者、政府等需要的透明度和信息是不一樣的,還需要考慮知識產(chǎn)權(quán)、技術(shù)特征、人們的技術(shù)素養(yǎng)等事項。一般而言,對于由人工智能系統(tǒng)做出的決策和行為,在適當?shù)臅r候應能提供說明或者解釋,包括背后的邏輯和數(shù)據(jù),這要求記錄設(shè)計選擇和相關(guān)數(shù)據(jù),而不是一味追求技術(shù)透明。換句話說,技術(shù)透明或者說算法透明不是對算法的每一個步驟、算法的技術(shù)原理和實現(xiàn)細節(jié)進行解釋,簡單公開算法系統(tǒng)的源代碼也 不能提供有效的透明度,反倒可能威脅數(shù)據(jù)隱私或影響技術(shù)安全應用。更進一步,考慮到 AI 的技術(shù)特征,理解 AI 系統(tǒng)整體是異常困難的, 對理解 AI 作出的某個特定決策也收效甚微。所以,對于現(xiàn)代 AI 系 統(tǒng),通過解釋某個結(jié)果如何得出而

32、實現(xiàn)透明將面臨巨大的技術(shù)挑戰(zhàn), 也會極大限制 AI 的應用;相反,在 AI 系統(tǒng)的行為和決策上實現(xiàn)有效透明將更可取,也能提供顯著的效益。此外,在發(fā)展和應用人工智能的過程中,應為社會公眾參與創(chuàng)造 機會,并支持個人權(quán)利的行使。一方面,由于人工智能對個人和社會 的潛在影響,確保社會公眾能夠參與到人工智能的研發(fā)和應用活動中, 是至關(guān)重要的。為此,社會各界應為公眾參與創(chuàng)造機會,諸如用戶反 饋、用戶選擇、用戶控制等,也包括利用人工智能系統(tǒng)的能力促進公 平賦能和公眾參與。另一方面,公眾參與也可以通過行使個人權(quán)利的 方式來實現(xiàn)。為此,需要尊重數(shù)據(jù)保護和隱私權(quán)、表達和信息自由、非歧視等個人權(quán)利。同時,對于人工智

33、能做出的決策,在適當?shù)臅r候提供異議和申訴機制以挑戰(zhàn)這些決策;對于人工智能造成的損害,提供救濟途徑并能追究各參與方的法律責任。最后,還需要保障個人的信息自決,比如,確保個人能夠合理知曉其在與人工智能系統(tǒng)直接互動、其為人工智能系統(tǒng)提供了個人信息等,并就人工智能系統(tǒng)的目的、功能、限制、影響等向用戶提供相關(guān)信息,以保障用戶對人工智能的預期和一般性控制。第四,可控(controllable)。人工智能的發(fā)展應置于人類的有效控制之下,避免危害人類個人或整體的利益。短期來看,發(fā)展和應用人工智能應確保其帶來的社會福祉顯著超過其可能給個人和社會帶來的可預期的風險和負面影響,確保這些風險和負面影響是可控的,并在風

34、險發(fā)生之后積極采取措施緩解、消除風險及其影響。只有當效益和正面價值顯著超過可控的風險和消極影響時,人工智能的發(fā)展才符合可控性的要求。此外,“可控”還意味著,在人與機器關(guān)系中,對于機器所做的決定及其后果,需要考慮由人來承擔最終責任,以確保人機共生的社會不失范。長期來看,雖然人們現(xiàn)在還無法預料通用人工智能和超級人工智能能否實現(xiàn)以及如何實現(xiàn),也無法完全預料其影響,但應遵循預警原則(precautionary principle),防范未來的風險,使未來可能出現(xiàn)的通用人工智能和超級人工智能能夠服務于全人類的利益。此外,可控性要求人們必須考慮人工智能應用的邊界和底線問題, 對人工智能技術(shù)的武器、監(jiān)控、人

35、類增強等特殊用途進行限制和規(guī)制。(二)構(gòu)建塑造人工智能信任的規(guī)則體系當然,信任的建立,需要一套規(guī)則體系。最左端,是軟法性質(zhì)的規(guī)則,包括社會習俗、道德規(guī)范等;往右,是強制性規(guī)則,比如規(guī)制組織內(nèi)行為的法律(如公司法),適用于工業(yè)產(chǎn)品的標準,針對醫(yī)療、金融、貿(mào)易等細分領(lǐng)域的監(jiān)管規(guī)范,等等;再往右,是刑法的威懾; 最右端,是國際法,比如禁止生化武器的國際公約。對于人工智能,人們需要一套類似的規(guī)則系統(tǒng)。在這些原則之下, 人們可以探索制定標準、法律、國際公約等。在技術(shù)倫理的最新發(fā)展階段,未來將可能出現(xiàn)一系列圍繞數(shù)據(jù)和人工智能算法及其應用的法律規(guī)范。我們認為,需要遵循以下幾個原則:第一,避免采取統(tǒng)一的專門監(jiān)

36、管。企圖為所有的人工智能應用制定統(tǒng)一的監(jiān)管框架是不現(xiàn)實的,各個行業(yè)的專門監(jiān)管機構(gòu)最能評估人工智能對特定領(lǐng)域的影響并采取適宜的監(jiān)管措施。第二,采取包容審慎、敏捷靈活的規(guī)制方式。一方面,由于技術(shù)以及商業(yè)模式快速發(fā)展和迭代,草率的立法不可能期待會產(chǎn)生正面的效果,而且成文或?qū)iT的立法恐難跟上技術(shù)步伐,故應避免嚴格、細致的法律要求,而是可以采取事后監(jiān)管或者通過出臺標準、行業(yè)公約、倫理框架、最佳實踐、技術(shù)指南等調(diào)整人工智能等新技術(shù)的發(fā)展應用, 支持行業(yè)自律。另一方面,需要為自動駕駛汽車、人工智能醫(yī)療服務等人工智能新事物革除既有的監(jiān)管法律政策障礙,避免過時的法律要求阻礙人工智能創(chuàng)新發(fā)展。因為隨著人工智能技術(shù)

37、持續(xù)滲透到各行各業(yè),帶來新的產(chǎn)品和服務,未來新事物與舊制度的沖突會越來越多,呼吁監(jiān)管法律政策的革新和創(chuàng)新。更進一步,作為對技術(shù)應用的“軟法”規(guī)制,可以通過科技倫理來對科技行業(yè)的狹隘的技術(shù)向度和利益局限進行糾偏和矯正。而且考慮到當前技術(shù)發(fā)展的特征,科技倫理在預防和緩解新技術(shù)、新業(yè)務帶來的風險挑戰(zhàn)方面將發(fā)揮越來越重要的作用。因為法律規(guī)范本身具有滯后性,難以跟上技術(shù)發(fā)展的步伐,造成許多規(guī)范真空地帶,而科技倫理可以更好地發(fā)揮事前引導作用,將技術(shù)發(fā)展引向向上向善的健康發(fā)展軌道。因此,人們需要超越狹隘的技術(shù)向度和利益局限,通過預警性思考、廣泛的社會參與和多學科評估來充分討論可能存在的風險和危害,制定出切實

38、可行的指導方針和倫理準則來引導、規(guī)范新技術(shù) 研發(fā)應用,以更好地應對前沿領(lǐng)域技術(shù)應用可能引發(fā)的社會治理危機。第三,遵循分階段的監(jiān)管思路。例如,在落實具體監(jiān)管措施時,應首先考慮人工智能給公共安全和消費者帶來的風險是否可以通過 既有的監(jiān)管框架來調(diào)整;其次應當考慮這些既有的監(jiān)管框架是否可以 充分且有效地規(guī)制這些風險;如果一項風險游離于既有監(jiān)管框架之外, 最后才應當考慮是否需要對監(jiān)管框架作出修訂或增加,以更好地應對 人工智能帶來的獨特問題。第四,采取多利益相關(guān)方協(xié)同治理的模式??紤]到人工智能等新技術(shù)的復雜性,相應的治理需要廣泛聽取行業(yè)、專家和公眾意見,避免決策者與從業(yè)者脫節(jié)。更進一步,前沿技術(shù)領(lǐng)域的社會

39、治理離不開廣泛社會參與和跨學科研究。44 年前的阿西洛馬重組 DNA 會議彰顯了科學共同體在應對新技術(shù)發(fā)展的不確定性決策中的重要作用。現(xiàn)代科學技術(shù)與經(jīng)濟社會以異乎尋常的速度整合和相互建構(gòu),但其高度的專業(yè)化、知識化和技術(shù)化使圈外人很難對其中的風險和不確定性有準確的認知和判斷,沒有來自科學共同體內(nèi)部的風險預警和自我反思, 任何一種社會治理模式都很難奏效。因此,一方面需要通過多利益相關(guān)方協(xié)同參與的方式,讓監(jiān)管機構(gòu)、決策者、學術(shù)界、行業(yè)、社會公共機構(gòu)、專家、從業(yè)者、公眾等等都參與到新技術(shù)治理中來,各方協(xié)同治理好新技術(shù)。另一方面,通過科技倫理教育宣傳增進科研人員和社會公眾在倫理上的自覺,使其不僅僅考慮狹

40、隘的經(jīng)濟利益,而且對技術(shù)發(fā)展應用的潛在影響及其防范進行反思和預警性思考(precautionary thinking),才有可能通過廣泛社會參與和跨學科研究的方式來實現(xiàn)對前沿技術(shù)的良好治理。二、幸福(happiness):智能社會人機共生互聯(lián)網(wǎng)、云計算、人工智能等前沿技術(shù)融合發(fā)展,加速了更加成熟的信息社會的到來,人類正在進入更加徹底的技術(shù)型社會。各種智能機器正在成為人類社會中不可或缺的一部分,和我們的生活和生產(chǎn)息息相關(guān)。這給人類與技術(shù)之間的關(guān)系提出了新的命題,需要人們深入思考智能社會如何實現(xiàn)人機共生(human-computer symbiosis)。 因為無論技術(shù)怎么發(fā)展和應用,其都應當服務

41、于人,服務于人的發(fā)展和幸福。正如古希臘哲學家亞里士多德所言,幸福是人生的終極目的。構(gòu)建和諧的人機關(guān)系,實現(xiàn)智能社會人機共生,需要思考以下兩個方面。(一)人人都有追求數(shù)字福祉的權(quán)利在互聯(lián)網(wǎng)發(fā)展二十多年后的今天,互聯(lián)網(wǎng)創(chuàng)新需要從獲取用戶注 意力,向促進用戶數(shù)字福祉轉(zhuǎn)變。數(shù)字福祉(digital wellbeing) 有兩大內(nèi)涵,一方面是人人都可享受到互聯(lián)網(wǎng)技術(shù)帶來的便利和紅利, 但如今技術(shù)鴻溝和數(shù)字鴻溝依然存在,全球還有接近一半人口沒有接入互聯(lián)網(wǎng),老年人、殘疾人等弱勢群體未能充分享受到數(shù)字技術(shù)帶來的便利。對此,國內(nèi)外的科技公司一直在著力解決這些問題。例如, 在國內(nèi),騰訊一貫重視用戶的數(shù)字福祉,一直

42、致力于讓所有人都能平等、方便、無障礙地獲取并利用信息,幾乎全系列產(chǎn)品都有了“信息無障礙”版本。騰訊為此獲得了聯(lián)合國教科文組織頒發(fā)的“數(shù)字賦能殘疾人獎”。另一方面是減小、防止互聯(lián)網(wǎng)技術(shù)對個人的負面影響。如今,在人手一部智能手機的年代,我們每天花在網(wǎng)絡上的時間越來越多。于是人們開始擔心,我們是不是在屏幕上花了太多時間,以致于可能會對我們的健康、生活、工作等產(chǎn)生負面影響?我們越發(fā)依賴于技術(shù), 將我們的自主性讓渡給了技術(shù)?技術(shù)會對我們的思維產(chǎn)生什么樣的影響?在注意力經(jīng)濟模式下,互聯(lián)網(wǎng)公司持續(xù)收集用戶數(shù)據(jù),并借助推薦算法實現(xiàn)個性化的內(nèi)容推薦,從而更好地影響用戶的日常交往,并持續(xù)吸引用戶的注意力。但推薦算

43、法也可能給用戶帶來信息繭房、算法偏見等負面影響,比如,限制用戶對信息的自由選擇,將用戶置于算法建立起來的泡沫之中,只接觸到自己喜歡或認同的內(nèi)容,從而可能給用戶造成信息繭房、自我封閉和偏見,進而影響用戶的思維模式并可能扭曲用戶的認知。此外,借由虛擬現(xiàn)實、增強現(xiàn)實等技術(shù)進行的交流和交往甚至會給我們的人際關(guān)系帶來更深的影響,遠程交流不斷增強,而面對面交流則可能趨于式微。可喜的是,國外發(fā)起的“Time Well Spent”運動逐漸獲得主流科技公司的認可。館 2018 年以來,科技公司已經(jīng)開始采取措施應對互聯(lián)網(wǎng)等數(shù)字技術(shù)應用對個人的影響,將保障、促進用戶數(shù)字福祉作為其產(chǎn)品和服務的核心價值追求。比如,

44、AndroidP 版推出的Dashboard 功能,通過統(tǒng)計用戶的屏幕時間,幫助用戶控制手機和網(wǎng)絡使用,防止過度沉迷,實現(xiàn)數(shù)字福祉(digital wellbeing)。iOS 12 推出了“屏幕使用時間”功能,同樣意在幫助用戶將手機和網(wǎng)絡使用控制在合理的限度,防止過度使用。Facebook 則發(fā)布了“數(shù)字福祉”工具,允許用戶監(jiān)測自己花在社交網(wǎng)絡上的時間并設(shè)定時長限制, 同時更容易地關(guān)閉推送通知。在未成年人網(wǎng)絡保護方面,騰訊從 2009 年起就持續(xù)推進相關(guān)措施,包括投入使用網(wǎng)游防沉迷系統(tǒng),推出成長守護平臺,推出未成年人消費提醒服務,不斷升級健康游戲并啟動最嚴格實名認證等等。此外,包括騰訊視頻的

45、護眼模式在內(nèi)的多項創(chuàng)新模式旨在切實保障用戶尤其是青少年用戶的數(shù)字福祉??傊?,從關(guān)注互聯(lián)網(wǎng)創(chuàng)新向關(guān)注、促進數(shù)字福祉的轉(zhuǎn)變,要求科技公司依循“經(jīng)由設(shè)計的數(shù)字福祉”(digital wellbeing by design)理念,將對用戶數(shù)字福祉的促進融入到互聯(lián)網(wǎng)產(chǎn)品、服務的設(shè)計中。(二)人人都有幸福工作的權(quán)利人們對人工智能將如何影響就業(yè)和工作,存在顯著的分歧。有人悲觀,認為人工智能將導致大規(guī)模失業(yè),無用階層等概念甚囂塵上,呼吁對機器人和人工智能征稅,并實行普遍基本收入制度(universal basic income)。有人樂觀,認為人工智能將創(chuàng)造許多新工作和更多就業(yè)機會,但工作的內(nèi)容、性質(zhì)、方式和

46、需求等可能發(fā)生很大變化, 需要人們掌握新的知識和技能。縱觀整個歷史,技術(shù)創(chuàng)新從未帶來大規(guī)模失業(yè),反倒在經(jīng)濟活動中創(chuàng)造了新的、更多的就業(yè)機會,機器人、人工智能、3D 打印等新技術(shù)是否是個例外,還不得而知。但就目前而言,人工智能的經(jīng)濟影響依然相對有限,不可能很快造成大規(guī)模失業(yè),也不可能終結(jié)人類工作,因為技術(shù)采納和滲透往往需要數(shù)年甚至數(shù)十年,需要對生產(chǎn)流程、組織設(shè)計、商業(yè)模式、供應鏈、法律制度、文化期待等各方面做出調(diào)整和改變。雖然短期內(nèi)人工智能可能影響部分常規(guī)性的、重復性的工作。長遠來看,以機器學習為代表的人工智能技術(shù)對人類社會、經(jīng)濟和工作的影響將是深刻的, 但人類的角色和作用不會被削弱,相反會被加

47、強和增強。比如,人工智能輔助診療工具可以幫助醫(yī)生提高醫(yī)療診斷的效率和準確性并制定更有效、更個人化的治療方案,醫(yī)生則有更多時間來從事與其他醫(yī)生交流、安慰病人、制定診療計劃等需要判斷力、創(chuàng)造力、同理心、交流和情商的非結(jié)構(gòu)性工作任務。未來,人類將以新的方式繼續(xù)與機器協(xié)同工作,進入人機協(xié)同的新時代,人工智能將成為人類的強大幫手和助手,極大增強人類體力、智力等。因為機器有機器的用處,人有人的用處,兩者配合才能夠發(fā)揮最大化的價值。人們現(xiàn)在需要做的,就是為當下和未來的勞動者提供適當?shù)募寄芙逃?,為過渡期勞動者提供再培訓、再教育的公平機會, 支持早期教育和終身學習。英國數(shù)字戰(zhàn)略顯示,未來二十年內(nèi), 90%以上的

48、工作或多或少都需要數(shù)字技能。而且,人工智能、機器人 等新技術(shù)正在從 ICT 領(lǐng)域向?qū)嶓w經(jīng)濟、服務業(yè)、農(nóng)業(yè)等諸多經(jīng)濟部門擴散、滲透,未來中國將成為機器人大國,這些變化將在很大程度上 影響當前的就業(yè)和經(jīng)濟結(jié)構(gòu)。為了確保勞動者能夠應對這場科技巨變, 高效地為他們提供數(shù)字技能至關(guān)重要。三、可持續(xù)(sustainability):踐行“科技向善”,塑造健康包容可持續(xù)的智慧社會技術(shù)創(chuàng)新是推動人類和人類社會發(fā)展的最主要因素。而這一輪技術(shù)革命具有巨大的“向善”潛力,將對人類生活與社會進步帶來突破性的提升。因此,在二十一世紀的今天,人類擁有的技術(shù)能力,以及這些技術(shù)所具有的“向善”潛力,是歷史上任何時候都無法比擬的。換言之,這些技術(shù)本身是“向善”的工具,可以成為一股“向善”的力量,用于解決人類發(fā)展面臨著的各種挑戰(zhàn),助力可持續(xù)發(fā)展目標。與此同時,人類所面臨

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論