版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、一、人工智能相關(guān)基本概念(一)人工智能歐盟委員會發(fā)布的人工智能通訊對人工智能的定義為:人工智能(AI)是指“顯示智能行為的系統(tǒng)”,它可以分析環(huán)境,并行使一定的自主權(quán)來執(zhí)行任務(wù)?;谌斯ぶ悄艿南到y(tǒng)可以是在虛擬世界運(yùn)行的純軟件型系統(tǒng),例如語音助手、圖像分析軟件、搜索引擎、語音和人臉識別系統(tǒng),也可以是嵌入人工智能的硬件設(shè)備,例如高級機(jī)器人、自動駕駛 汽車、無人機(jī)、物聯(lián)網(wǎng)應(yīng)用程序。對于智能,可以簡單直接的定義為,智能行為是“在正確的時間做正確的事”。簡單來說,智能是“獲取、使用知識和技能,與其所在環(huán)境進(jìn)行互動的能力”。具有三個共同特征:一是一種智能體,可與自身所處的環(huán)境進(jìn)行交互;二是與智能體成功實(shí)現(xiàn)某
2、種目標(biāo)或目的的能力有關(guān);三是取決于智能體適應(yīng)不同目標(biāo)和環(huán)境的能力。一般認(rèn)為智能包含適應(yīng)、學(xué)習(xí)、理解等元素。用最簡單的話來說,智能是獲取、使用知識和技能,與其所在環(huán)境進(jìn)行互動的能力。“機(jī)器學(xué)習(xí)”指的是有能力學(xué)習(xí)自身環(huán)境的人工智能或有能力適應(yīng)自身環(huán)境的機(jī)器人。機(jī)器學(xué)習(xí)通??煞殖蓛煞N類型:監(jiān)督式學(xué)習(xí)和非監(jiān)督式學(xué)習(xí)。監(jiān)督式學(xué)習(xí)系統(tǒng)通常使用人工神經(jīng)網(wǎng)絡(luò)(ANN),通過向人工神經(jīng)網(wǎng)絡(luò)提供輸入信息(例如動物圖像)并對人工神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。每條輸入信息都會被標(biāo)記為一條輸出信息(例如長頸鹿、獅子、猩猩)。這套輸入信息以及與之相匹配的輸出信息被稱為訓(xùn)練數(shù)據(jù)集。訓(xùn)練之后,即使該圖片未出現(xiàn)在訓(xùn)練數(shù)據(jù)集中,人工神經(jīng)網(wǎng)絡(luò)
3、也有能力識別向其呈現(xiàn)的圖片中所包含的動物(例如獅子)。非監(jiān)督式學(xué)習(xí)不使用訓(xùn)練數(shù)據(jù),人工智能(或機(jī)器人)必須自行(通常通過試驗(yàn)和誤差)設(shè)計(jì)出完成某一特定任務(wù)的方法?!吧疃葘W(xué)習(xí)”通常指擁有大型(多層)人工神經(jīng)網(wǎng)絡(luò)和大型訓(xùn)練數(shù)據(jù)集的監(jiān)督式學(xué)習(xí)系統(tǒng)。機(jī)器學(xué)習(xí)可以用于人工智能的問題,是實(shí)現(xiàn)人工智能的一種方法,而深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個重要技術(shù)方向。(二)“道德”和“倫理”倫理是人類行為或活動所適用的道德原則。如,對每個人報以尊重就是一項(xiàng)倫理原則。人工智能倫理的范圍包括現(xiàn)有人工智能系統(tǒng)的數(shù)據(jù)隱私和偏見問題引發(fā)的擔(dān)憂,未來中短期人工智能和機(jī)器人對就業(yè)和工作場所影響所引發(fā)的擔(dān)憂,以及未來長期人工智能系統(tǒng)達(dá)到或
4、超過人類能力(即所謂的“超智能”)所引發(fā)的擔(dān)憂。當(dāng)前,智能手機(jī)和人工智能驅(qū)動型應(yīng)用程序越來越普遍,其中許多應(yīng)用程序是人們?nèi)粘I畋匦璧摹Ec此同時,人工智能對各行業(yè)(包括工業(yè)、醫(yī)療、警務(wù)、司法、交通、金融、休閑等)的影響越來越大,各國出現(xiàn)了人工智能“軍備競賽”的苗頭。為此,提出了一些人工智能倡議,非政府組織、學(xué)術(shù)界、產(chǎn)業(yè)界、專業(yè)機(jī)構(gòu)和各國政府都參與了這些倡議的制定。這些倡議公布了許多適用于機(jī)器人和人工智能的倫理原則(自 2017 年 1 月以來,全球至少公布了 22 套倫理原則)。英國標(biāo)準(zhǔn)協(xié)會和電氣與電子工程師協(xié)會等也推出了新的倫理標(biāo)準(zhǔn)。二、人工智能應(yīng)用引發(fā)的主要倫理困境和道德問題(一)對社會的
5、影響對勞動力市場產(chǎn)生不利影響。據(jù)預(yù)測,在未來 20 年,人工智能及其相關(guān)技術(shù)可能造成大量失業(yè)。近期一份報告認(rèn)為,新興信息技術(shù)在不久的將來會導(dǎo)致眾多職業(yè)的就業(yè)率大幅下滑。自動化已經(jīng)對“藍(lán)領(lǐng)”工作產(chǎn)生了沖擊,隨著人工智能在金融、太空、先進(jìn)制造、運(yùn)輸、醫(yī)療衛(wèi)生等領(lǐng)域的廣泛應(yīng)用,很多工作崗位將會被淘汰。造成不平等問題。人工智能存在的最大問題是不平等。人工智能和機(jī)器人技術(shù)將幫助企業(yè)簡化業(yè)務(wù),改善業(yè)績。但是,有人認(rèn)為這將犧牲企業(yè)員工的利益。這意味著企業(yè)的收入被少數(shù)人瓜分,進(jìn)而加劇社會的不平等。人工智能驅(qū)動型企業(yè)的所有者將獲得與其貢獻(xiàn)不成比例的高額回報。涉及隱私、人權(quán)和尊嚴(yán)問題。未來十年,人工智能將對人類隱
6、私產(chǎn)生深刻的影響。設(shè)計(jì)服務(wù)機(jī)器人、護(hù)理機(jī)器人和陪護(hù)機(jī)器人時必須考慮人工智能用戶的隱私和尊嚴(yán)。機(jī)器人在用戶的家中工作將參與高度私密的場合(例如洗澡和穿衣)。易受偏見的影響。用于訓(xùn)練系統(tǒng)的數(shù)據(jù)或者系統(tǒng)開發(fā)人員和用戶的價值觀可能引發(fā)系統(tǒng)性偏見。最容易導(dǎo)致這一問題的情形是,訓(xùn)練機(jī)器學(xué)習(xí)應(yīng)用程序時所使用的數(shù)據(jù)只體現(xiàn)某些人群的狀況或存在社會偏見。許多加劇社會偏見的案件已經(jīng)引起人們的關(guān)注,而人工智能系統(tǒng)會復(fù)制或自動強(qiáng)化社會偏見。此外,對民主會產(chǎn)生影響。技術(shù)、經(jīng)濟(jì)和政治資源集中在少數(shù)幾個特大型企業(yè),可能導(dǎo)致這些企業(yè)對政府產(chǎn)生過度的影響。人工智能的應(yīng)用還可能以其他方式影響民主。(二)對人類心理的影響未來,機(jī)器人
7、將承擔(dān)護(hù)理、家務(wù)、照顧老人兒童、教學(xué)等各類社會角色。不僅為人類服務(wù),還可能成為人類伴侶。這些機(jī)器人可以像人那樣具備“看”和“說”等行為。未來人們可能與機(jī)器人產(chǎn)生感情,甚至愛上它們。如果這些成為現(xiàn)實(shí),將對人際關(guān)系和人類心理產(chǎn)生不利的影響。(三)對金融系統(tǒng)的影響市場很好地適應(yīng)了自動化。市場現(xiàn)在幾乎完全以電子化的方 式運(yùn)行,快速生成海量數(shù)據(jù),這些數(shù)據(jù)需要通過算法來消化。市 場參與主體必須及時對信息進(jìn)行響應(yīng),使得人們慢慢退出決策鏈。最為明顯的是有效的交易決策可能帶來豐厚的回報。所以,企業(yè) 會對人工智能技術(shù)進(jìn)行大量投資。也就是,算法交易產(chǎn)生利潤的 速度和頻率是人類操盤手無法匹敵的。雖然目前,自主應(yīng)用程序
8、 的能力和自主性相對有限,但會對人類產(chǎn)生影響。(四)對法律體系的影響人工智能機(jī)器的發(fā)明和應(yīng)用對刑法和民法產(chǎn)生巨大影響。當(dāng) 前,復(fù)雜和重要的決策由算法處理?,F(xiàn)有的法律框架可能無法應(yīng) 付這種情況。未來短期內(nèi)與人工智能有關(guān)的最重要的法律問題是,人工智能參與的侵權(quán)、犯罪和違約行為如何歸責(zé)。對刑法的影響。如果機(jī)器人有充分的意識,它們就可能作為刑事犯罪的直接實(shí)施者承擔(dān)責(zé)任,或者對過失犯罪負(fù)責(zé)。如果我們承認(rèn)機(jī)器人有自己的想法,像人一樣擁有自由意志、自主性或道德感,整個法律體系必須進(jìn)行重大修改。這種可能性成為現(xiàn)實(shí)的概率不大。但是,機(jī)器人可能以更加微妙的方式影響刑法。對侵權(quán)法的影響。如,未來幾年,隨著公路上開始
9、出現(xiàn)自動駕駛汽車,侵權(quán)法將受到高度關(guān)注。自動駕駛汽車事故涉及兩類法律問題:過失以及產(chǎn)品責(zé)任。如果事故是由車輛缺陷所引發(fā)的,情況更為復(fù)雜。因?yàn)樽詣?駕駛汽車的硬件故障、設(shè)計(jì)故障或軟件錯誤(計(jì)算機(jī)算法的缺陷)均可能引發(fā)事故。當(dāng)前,如果是計(jì)算機(jī)程序的錯誤或缺陷引發(fā)撞 車,制造商須按產(chǎn)品責(zé)任原則承擔(dān)責(zé)任。該原則要求提供產(chǎn)品的 制造商、經(jīng)銷商、供應(yīng)商、零售商和其他主體對產(chǎn)品所造成的傷 害負(fù)責(zé)。如果事故是由軟件錯誤引發(fā)的,則需要通過“風(fēng)險-應(yīng)用 測試”:如果賣方采用合理的替代設(shè)計(jì)可以減少或避免產(chǎn)品可預(yù) 見的風(fēng)險,而產(chǎn)品因賣方未能采用替代設(shè)計(jì)而缺乏合理的安全性,則認(rèn)定產(chǎn)品存在缺陷。(五)對環(huán)境和地球的影響增
10、加稀土等自然資源的使用。電動汽車和智能手機(jī)中常用的鋰電池需要使用鎳、鈷、石墨等材料。這些材料的開采已經(jīng)對環(huán)境造成了破壞。人工智能的應(yīng)用可能會增加對這些材料的需求。隨著材料供應(yīng)量的減少,操作人員可能被迫在更復(fù)雜、對人體有害的環(huán)境中開展工作。這將使采礦和金屬提取活動的自動化程度進(jìn)一步提高,進(jìn)而提高稀土等的產(chǎn)量和消耗速度,加劇環(huán)境惡化。產(chǎn)生污染和廢物。電子產(chǎn)品在生命周期結(jié)束后通常會被丟棄,這會導(dǎo)致重金屬和有毒物質(zhì)在環(huán)境中不斷積聚。增加能源消耗。人工智能技術(shù)(尤其是機(jī)器學(xué)習(xí))的應(yīng)用意味著需要處理越來越多的數(shù)據(jù),需要消耗大量的能源。如,在美國,數(shù)據(jù)中心的用電量占全國總用電量的 2%左右。據(jù)估計(jì),“阿爾法
11、狗”消耗的能量是人腦的 5 萬倍。幫助人類造福地球。人工智能也可以幫助人們管理廢物和污染問題。例如,使用自動駕駛車輛可減少溫室氣體排放,其燃油消耗降低約 20%,溫室氣體排放量降低 20%左右。(六)對人工智能信任度的影響建立人工智能的信任機(jī)制,可以通過信任、公平、透明、問責(zé)和監(jiān)管等來實(shí)現(xiàn)。信任。數(shù)字技術(shù)無處不在,信任數(shù)字技術(shù)對維持社會的合理運(yùn)轉(zhuǎn)至關(guān)重要。對制定決策所使用的機(jī)器學(xué)習(xí)算法進(jìn)行持續(xù)監(jiān)督需要耗費(fèi)大量的時間和資源,進(jìn)而導(dǎo)致數(shù)字技術(shù)的應(yīng)用喪失可行性。但我們分配給數(shù)字技術(shù)的任務(wù)與人類息息相關(guān),如果完全不接受監(jiān)督,我們的安全以及社會賴以生存的權(quán)利和價值觀將受到嚴(yán)重的威脅。公平。公平與公正是人
12、工智能獲得信任的前提。隨著越來越多的決策權(quán)被賦予人工智能,人們必須確保人工智能的決策不包含偏見和歧視。人工智能應(yīng)用于面試中的簡歷篩選、大學(xué)招生、貸款公司信用評級、再犯罪風(fēng)險評估等場景。無論人工智能用于哪種場景,其制定的決策必須是公平的,而且應(yīng)避免加劇社會不平等問題。透明度。幾年前,美國的一個電腦程序?qū)π菟诡D教師的工作業(yè)績進(jìn)行了評估。一些教師認(rèn)為,該程序在沒有正當(dāng)理由的情況下給他們打了低分,但他們無法檢查該程序是否公平、是否存在缺點(diǎn)。這些教師后來向法院提起訴訟。聯(lián)邦法官裁定,該程序侵犯了這些教師的民事權(quán)利。這一案例突出體現(xiàn)了透明對于人工智能構(gòu)建信任的重要性。自主系統(tǒng)制定某一具體決策的原因應(yīng)始終具
13、有可追溯性,尤其是在該決策產(chǎn)生危害的情況下。問責(zé)機(jī)制。問責(zé)機(jī)制可以確保人工智能犯錯或者對某人造成危害時有人(設(shè)計(jì)人員、開發(fā)人員或出售人工智能產(chǎn)品的企業(yè))能承擔(dān)責(zé)任。問責(zé)機(jī)制可能在自動駕駛中發(fā)揮重要作用,明確責(zé)任承擔(dān)者。例如,2016 年,一輛配備雷達(dá)和攝像頭的特斯拉 Model S 汽車將附近的一輛卡車誤認(rèn)為是天空,引發(fā)了一起死亡事故; 2018 年 3 月,優(yōu)步在自動駕駛車輛的試驗(yàn)中使用的一輛汽車撞死了美國的一位女性。監(jiān)管。人們對“超智能”觀點(diǎn)產(chǎn)生了恐懼,他們認(rèn)為,隨著人工智能超越人類的能力,它可能控制人類的資源,在與人類的競爭中勝出,進(jìn)而導(dǎo)致人類滅絕。由此產(chǎn)生恐懼心理,如果精心設(shè)計(jì)的智能體
14、的目標(biāo)與人類需求相一致,智能體可能以實(shí)現(xiàn)非預(yù)期的子目標(biāo)為目的進(jìn)行自我發(fā)展。盡管大多數(shù)研究人員認(rèn)為“超智能”不太可能出現(xiàn),但為了維持公眾對人工智能的信任,人類必須對人工智能進(jìn)行全面監(jiān)督。三、人工智能領(lǐng)域的倫理倡議信息技術(shù)可能會被濫用。人工智能可能會出現(xiàn)過度人格化和人性化現(xiàn)象,從而使人機(jī)之間的界線越來越模糊。人工智能的不斷發(fā)展將帶來新的“數(shù)字鴻溝”,也將對生物圈和環(huán)境產(chǎn)生影響。(一)國際倫理倡議盡管國家層面的倫理倡議較少,但國際社會已發(fā)起諸多獨(dú)立倡議,以探索解決倫理困境。如,德國的人工智能倫理研究所,提出以人為本的課題,重點(diǎn)是人工智能快速發(fā)展的文化與社會定位,涵蓋哲學(xué)、倫理學(xué)、社會學(xué)、政治學(xué)等學(xué)科
15、。英國的人工智能與機(jī)器學(xué)習(xí)倫理研究所提出“負(fù)責(zé)任機(jī)器學(xué)習(xí)”的八項(xiàng)原則,授權(quán)所有行為體(從個人到整個國家)開發(fā)人工智能,這些原則涉及人類控制保持、對人工智能影響的適當(dāng)補(bǔ)救、偏見評估、可解釋性、透明度、可重復(fù)性、減輕人工智能自動化對勞動者、準(zhǔn)確性、成本、隱私、信任和安全等問題的影響。美國未來生命研究所發(fā)布的阿西洛馬人工智能原則,主要是確保公共職能的發(fā)展對人類有益,重點(diǎn)關(guān)注安全和與人類存在有關(guān)的風(fēng)險:自主武器軍備競賽、人類對人工智能的控制,以及先進(jìn)的“通用/強(qiáng)大的”人工智能或超智能人工智能的潛在危險。美國的人工智能倫理與治理倡議旨在確保以能夠證明公正、人類自主、正義等社會價值的方式研究、開發(fā)和部署自
16、動化及機(jī)器學(xué)習(xí)技術(shù)。美國電氣與電子工程師協(xié)會發(fā)布的人工智能設(shè)計(jì)的倫理準(zhǔn) 則(第 1 版),為保持人工智能和智能系統(tǒng)以人為本、服務(wù)于 人類的價值觀和原則制定社會和政策指南。在設(shè)計(jì)和開發(fā)過程中,重點(diǎn)確保對所有相關(guān)方進(jìn)行教育、培訓(xùn)和授權(quán),能夠優(yōu)先考慮人 權(quán)、福祉、問責(zé)制、透明度、濫用意識等倫理因素。日本人工智能學(xué)會發(fā)布的倫理準(zhǔn)則,主要是確保人工智 能研發(fā)始終對人類社會有益,確保相關(guān)研發(fā)符合倫理和道德準(zhǔn)則。歐洲某論壇發(fā)布的美好人工智能社會的倫理框架,就是主要應(yīng)對人工智能的社會影響,以及構(gòu)建“美好人工智能社會”的基礎(chǔ)原則、政策和實(shí)踐。(二)倡議旨在應(yīng)對的倫理危害與問題上述倡議均認(rèn)為應(yīng)以道德的方式研究、開
17、發(fā)、設(shè)計(jì)、部署、監(jiān)管和使用人工智能,但每項(xiàng)倡議的側(cè)重領(lǐng)域存在差異。上述倡議提出了很多關(guān)鍵問題,這些問題可大致分為以下幾類:人權(quán)與福祉:人工智能是否符合人類和人類福祉的最大利益?情感傷害:人工智能是否會降低人類情感體驗(yàn)的完整性,或者是否會造成情感或心理傷害?問責(zé)機(jī)制與責(zé)任制:誰應(yīng)該負(fù)責(zé)建立人工智能體系,以及誰應(yīng)該對人工智能做出的行為承擔(dān)責(zé)任?安全性、隱私性、可訪問性與透明度:我們?nèi)绾卧诳稍L問性和透明度與隱私和安全性之間進(jìn)行權(quán)衡,尤其是數(shù)據(jù)和個性化方面?信任度:如果公眾認(rèn)為人工智能不可信,或者人工智能的 行事方式會威脅自身或他人安全,這將阻礙人工智能系統(tǒng)的完善。社會危害與社會正義:如何確保人工智能
18、足夠的包容性,沒有偏見和歧視,且符合公共道德與倫理標(biāo)準(zhǔn)?金融損害:如何控制人工智能對經(jīng)濟(jì)機(jī)會和就業(yè)產(chǎn)生的負(fù)面影響(如搶占人類勞動者的工作、減少就業(yè)機(jī)會和質(zhì)量等)?合法性和正義性:如何確保以公正、公平、合法的方式使用、處理和管理人工智能及其收集的數(shù)據(jù)?如何確保人工智能遵守相關(guān)政府治理和法規(guī)?何為適當(dāng)法規(guī)?是否應(yīng)將人工智能當(dāng)成“人類”?對人工智能的控制和符合倫理地使用(或?yàn)E用):哪些人工智能的使用不符合倫理,以及如何防止這種情況發(fā)生?隨著人工智能的不斷發(fā)展和“學(xué)習(xí)”,如何確保人類能夠完全控制人工智能?環(huán)境危害與可持續(xù)性:我們?nèi)绾畏乐古c發(fā)展和使用人工智能相關(guān)的潛在環(huán)境危害?如何以可持續(xù)的方式發(fā)展人工
19、智能?合理使用:需要采取哪些措施確保公眾接受相關(guān)教育,充分了解人工智能的使用以及與人工智能的互動?生存危機(jī):如何避免人工智能軍備競賽?如何預(yù)先緩解和控制潛在危害?如何確保先進(jìn)的機(jī)器學(xué)習(xí)既可穩(wěn)步發(fā)展,又可予以管理?總體而言,這些倡議旨在確定并構(gòu)建倫理框架和制度,將人類福祉放在首位,優(yōu)先考慮對人類社會和環(huán)境的利益,并減輕與人工智能相關(guān)的風(fēng)險和負(fù)面影響,重點(diǎn)在于確保人工智能是負(fù)責(zé)任的和透明的。四、人工智能標(biāo)準(zhǔn)與法規(guī)隨著對人工智能和機(jī)器人技術(shù)的倫理、法律和社會影響的進(jìn)一步了解,新一代倫理標(biāo)準(zhǔn)也逐漸出現(xiàn)。某些標(biāo)準(zhǔn)已存在,但相關(guān)公開信息有限,仍處于完善中。機(jī)器人領(lǐng)域最早的明確道德標(biāo)準(zhǔn)或許是機(jī)器人和機(jī)器系統(tǒng)
20、的倫理設(shè)計(jì)和應(yīng)用指南(BS8611)(也稱英國標(biāo)準(zhǔn) BS8611)。該標(biāo)準(zhǔn)是關(guān)于設(shè)計(jì)人員如何確認(rèn)潛在倫理危害、如何對其機(jī)器人或人工智能進(jìn)行倫理風(fēng)險評估,以及如何減輕已發(fā)現(xiàn)的倫理風(fēng)險的指南。該標(biāo)準(zhǔn)是基于 20 種不同的倫理危害和風(fēng)險制定的,這些倫理危害和風(fēng)險可分為四大類:社會類、應(yīng)用類、商業(yè)與金融類,以及環(huán)境類。英國標(biāo)準(zhǔn) BS8611 就如何緩解每種風(fēng)險的影響提出了相關(guān)建議。例如,社會危害包括失去信任、欺騙、侵犯隱私、成癮、失業(yè)等。另外,倫理風(fēng)險評估還應(yīng)對可預(yù)見的濫用、導(dǎo)致壓力和恐懼的風(fēng)險(及其最小化)、控制失效(及相關(guān)心理影響)、重新配置、與職責(zé)相關(guān)的更改以及與特定機(jī)器人應(yīng)用相關(guān)的危害加以考量
21、。該標(biāo)準(zhǔn)尤其關(guān)注會學(xué)習(xí)的機(jī)器人,以及機(jī)器人因此增強(qiáng)而帶來的影響,該標(biāo)準(zhǔn)認(rèn)為,與使用機(jī)器人相關(guān)的倫理風(fēng)險不應(yīng)超過人類進(jìn)行相同活動帶來的風(fēng)險。英國標(biāo)準(zhǔn) BS8611 假定人身危害即為倫理危害,并將倫理危害定義為影響“心理和/或社會及環(huán)境福祉”的危害。該標(biāo)準(zhǔn)還意識到,應(yīng)在用戶身體和情感傷害與預(yù)期收效之間進(jìn)行權(quán)衡。電氣與電子工程師協(xié)會通過其“自主與智能系統(tǒng)倫理”的全球性倡議,發(fā)布了一項(xiàng)標(biāo)準(zhǔn)。該倡議將“人類福祉”作為核心準(zhǔn)則,旨在將機(jī)器人技術(shù)和人工智能重新定位為改善人類境況的技術(shù),而非單純的經(jīng)濟(jì)增長工具。通過對人工智能/機(jī)器人相關(guān)方進(jìn)行教育、培訓(xùn)和授權(quán),以使其“優(yōu)先考慮倫理因素,從而使這些技術(shù)為人類造福
22、”。目前,其正在起草 14 個標(biāo)準(zhǔn),如,自主系統(tǒng)透明度、數(shù)據(jù)隱私流程、算法偏見問題、自動化面部分析技術(shù)的包容性與應(yīng)用標(biāo)準(zhǔn)、新聞來源可信度堅(jiān)定與評級流程標(biāo)準(zhǔn)等。五、關(guān)于人工智能的國家或國際戰(zhàn)略(一)歐洲2018 年 4 月,歐盟委員會發(fā)布了人工智能通訊。之后發(fā)布的人工智能協(xié)調(diào)計(jì)劃中詳細(xì)列出了 7 個目標(biāo),包括為初創(chuàng)企業(yè)提供資助、對多個“卓越研究中心”投資 15 億歐元、為人工智能領(lǐng)域的碩博學(xué)位提供保障,以及創(chuàng)建通用的歐洲數(shù)據(jù)空間等。該計(jì)劃的目標(biāo)之一是制定“具有全球視野的倫理準(zhǔn)則”。2019 年 4 月,這一準(zhǔn)則最終發(fā)布,提出了人工智能要獲得信任必須滿足的關(guān)鍵要求。之后,歐盟人工智能高級專家小組發(fā)
23、布了人工智能的投資指南,其中包括保護(hù)人類,促進(jìn)私營部門采用人工智能,提升歐洲對人工智能的研究能力,以及開發(fā)符合倫理的數(shù)據(jù)管理實(shí)踐等一系列重要建議。歐洲理事會于 2019 年 9 月成立了人工智能特別委員會(CAHAI)。該委員會將根據(jù)理事會關(guān)于人權(quán)、民主和法治的基本原則,對開發(fā)和應(yīng)用人工智能的法律框架的潛在要素進(jìn)行評估。專欄:歐盟“可信賴人工智能”的七個要求:人的能動性和監(jiān)督能力技術(shù)穩(wěn)定性和安全性隱私和數(shù)據(jù)治理透明度多樣性、非歧視性和公平性社會和環(huán)境福祉問責(zé)機(jī)制來源:歐盟委員會人工智能高級專家小組,2019 年歐盟委員會為不僅制定歐盟層面的人工智能政策,也鼓勵各成員國制定自己的國家戰(zhàn)略。芬蘭、
24、丹麥、法國、德國、瑞典等國家均已宣布國家級人工智能倡議。例如,芬蘭發(fā)布的芬蘭的人工智能時代、人工智能時代的就業(yè),以及丹麥發(fā)布的國家人工智能戰(zhàn)略。(二)北美2017 年 3 月,加拿大發(fā)布了世界上第一個國家級人工智能戰(zhàn)略泛加拿大人工智能戰(zhàn)略,包括四個主要目標(biāo):增加加拿大人工智能研究人員和畢業(yè)生人數(shù);在埃德蒙頓、蒙特利爾和多倫多建立科學(xué)卓越中心;在人工智能的經(jīng)濟(jì)、倫理、政策和法律影響方面確立全球思想領(lǐng)導(dǎo)地位;為國家人工智能研究群體提供支持。2019 年 2 月,美國發(fā)布美國人工智能倡議,包含五個關(guān)鍵領(lǐng)域:投資研發(fā)、釋放人工智能資源(即數(shù)據(jù)和計(jì)算能力)、制定治理標(biāo)準(zhǔn)、建立人工智能員工隊(duì)伍,以及參與國
25、際合作。2019 年 5 月,美國通過人工智能倡議法案(AI Initiative Act),旨在“建立協(xié)調(diào)一致的聯(lián)邦倡議,以促進(jìn)人工智能的研究和開發(fā),增強(qiáng)美國的經(jīng)濟(jì)和國家安全”,承諾建立國家人工智能協(xié)調(diào)辦公室,制定人工智能評估標(biāo)準(zhǔn),并資助 5 個國家人工智能研究中心。為美國國家科學(xué)基金會提供資金,用于研究人工智能對社會的影響,如數(shù)據(jù)偏見、隱私權(quán)和責(zé)任制,并擴(kuò)展由能源部領(lǐng)導(dǎo)的基于人工智能的研究工作。2019 年 6 月,美國發(fā)布了國家人工智能研發(fā)戰(zhàn)略計(jì)劃,確定了多項(xiàng)戰(zhàn)略重點(diǎn):對人工智能研究進(jìn)行長期投資;開發(fā)人類與人工智能合作的有效方法;開發(fā)共享的公共數(shù)據(jù)集;借助標(biāo)準(zhǔn)和基準(zhǔn)評估人工智能技術(shù);以及
26、了解和應(yīng)對人工智能的道德、法律和社會影響等。(三)亞洲2017 年 3 月,日本發(fā)布人工智能技術(shù)戰(zhàn)略,涉及健康和出行方面的重點(diǎn)領(lǐng)域,以應(yīng)對日本人口老齡化問題。日本針對人工智能設(shè)想了一個三階段開發(fā)計(jì)劃,最終將形成一個可供所有社會領(lǐng)域使用的、完整連接的人工智能生態(tài)系統(tǒng)。2017 年 5 月,新加坡發(fā)布了“新加坡人工智能計(jì)劃”,為期五年,旨在增強(qiáng)本國的人工智能能力,其中包括四個關(guān)鍵主題:工商業(yè)、人工智能框架與測試平臺、人工智能人才與從業(yè)人員,以及研發(fā)。次年,新加坡政府又針對人工智能治理與倫理宣布了其他倡議,包括建立人工智能與數(shù)據(jù)倫理使用咨詢委員會。2019年 1 月通過“人工智能治理示范框架”,以提
27、供指導(dǎo)性倫理原則。2017 年 7 月,中國發(fā)布了新一代人工智能發(fā)展規(guī)劃。之后,制定了“促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展的三年行動計(jì)劃”,該計(jì)劃的四個主要目標(biāo)是:關(guān)鍵人工智能重點(diǎn)產(chǎn)品規(guī)?;l(fā)展;人工智能整體核心競爭力顯著增強(qiáng);深化發(fā)展智能制造;以及人工智能產(chǎn)業(yè)支撐體系基本建立。2018 年 6 月,印度發(fā)布了人工智能國家戰(zhàn)略(AI for All),旨在利用人工智能優(yōu)勢促進(jìn)經(jīng)濟(jì)增長、社會發(fā)展和“包容性增長”,重點(diǎn)關(guān)注如何使公民有能力找到質(zhì)量更高的工作。(四)南美墨西哥是唯一發(fā)布人工智能戰(zhàn)略的南美國家。其戰(zhàn)略包括五項(xiàng)關(guān)鍵行動:開發(fā)適當(dāng)?shù)闹卫砜蚣芤源龠M(jìn)多部門對話;分析行業(yè)需求;提升墨西哥在人工智能領(lǐng)域的
28、國際領(lǐng)導(dǎo)地位;發(fā)布建議并征詢公眾意見;與專家和公眾合作,實(shí)現(xiàn)人工智能計(jì)劃的連續(xù)性。(五)國際組織七國集團(tuán)的人工智能未來的共同愿景。2018 年,七國集團(tuán)領(lǐng)導(dǎo)人提出了 12 項(xiàng)人工智能原則:促進(jìn)以人為本的人工智能及其商業(yè)應(yīng)用,繼續(xù)推動采用中性的技術(shù)倫理途徑;增加對人工智能研發(fā)的投資,以對新技術(shù)進(jìn)行公開測試,支持經(jīng)濟(jì)增長;為勞動力接受教育、培訓(xùn)和學(xué)習(xí)新技能提供保障;在人工智能的開發(fā)和實(shí)施中,為代表性不足群體(包括婦女和邊緣化群體)提供保障,并使其參與其中;就如何推進(jìn)人工智能創(chuàng)新促進(jìn)多方相關(guān)者對話,增進(jìn)信任,提高采用率;鼓勵可提升安全性和透明度的倡議;促進(jìn)中小企業(yè)使用人工智能;對勞動力進(jìn)行培訓(xùn);增加
29、對人工智能的投資;鼓勵以改善數(shù)字安全性和制定行為準(zhǔn)則為目的的倡議;保護(hù)開發(fā)隱私和進(jìn)行數(shù)據(jù)保護(hù);為數(shù)據(jù)自由流動提供市場環(huán)境。經(jīng)濟(jì)合作與發(fā)展組織的人工智能原則。2019 年 5 月 22日,經(jīng)合組織發(fā)布了人工智能原則,這是首個國際標(biāo)準(zhǔn),主要包括:人工智能應(yīng)促進(jìn)包容性增長、可持續(xù)發(fā)展和福祉,以使人類和地球從中受益;人工智能系統(tǒng)應(yīng)尊重法治、人權(quán)、民主價值觀和多樣性,且應(yīng)包含適當(dāng)?shù)谋U洗胧?,以確保社會公平;人工智能應(yīng)保持透明,以確保人們了解相應(yīng)的結(jié)果,并能夠應(yīng)對相關(guān)挑戰(zhàn)等。世界經(jīng)濟(jì)論壇。2019 年 5 月,世界經(jīng)濟(jì)論壇成立了一個全球人工智能理事會,負(fù)責(zé)制定政策指南,解決治理方面的空白,并推廣成功的人工
30、智能政策。2019 年 10 月,世界經(jīng)濟(jì)論壇制定國家人工智能戰(zhàn)略的框架,包括四個主要階段:評估長期戰(zhàn)略重點(diǎn),設(shè)定國家目標(biāo),制定基本戰(zhàn)略要素計(jì)劃,制定實(shí)施計(jì)劃。還宣布了開發(fā)“人工智能工具包”計(jì)劃。六、新興倫理倡議本文重點(diǎn)關(guān)注人工智能對社會、心理、金融、法律和環(huán)境領(lǐng)域的潛在影響。新興倫理倡議中提出了應(yīng)對的不同方式。此外,相關(guān)標(biāo)準(zhǔn)和法規(guī)也在制定當(dāng)中。然而,現(xiàn)有的許多人工智能戰(zhàn)略都側(cè)重于技術(shù)發(fā)展,各戰(zhàn)略之間存在明顯差距。(一)通過國家和國際戰(zhàn)略應(yīng)對倫理問題各國的人工智能戰(zhàn)略有幾個共同主題,其中,產(chǎn)業(yè)化和生產(chǎn) 力最為突出。所有國家/地區(qū)都制定人工智能產(chǎn)業(yè)戰(zhàn)略,尤其是東 南亞新興經(jīng)濟(jì)體。大多戰(zhàn)略都認(rèn)為人
31、工智能對商業(yè)競爭力很重要,德國、韓國、中國臺灣和英國的戰(zhàn)略,宣布為以人工智能為核心 的初創(chuàng)企業(yè)提供額外資金和專門的孵化器。重視研發(fā)。幾乎所有戰(zhàn)略都承諾將增加研究經(jīng)費(fèi),且許多戰(zhàn)略,如加拿大、德國和印度的戰(zhàn)略,都指出將建立專門的人工智能研究機(jī)構(gòu)。加大對人才和教育的投資。對人員和教育進(jìn)行投資也是大多數(shù)戰(zhàn)略的一大重點(diǎn)。英國宣布將通過“圖靈獎”為探索計(jì)算方法的新學(xué)者提供資助,德國至少額外提供了 100 名從事人工智能的教授,這兩項(xiàng)舉措都是在歐盟承諾培訓(xùn)、吸引和留住人才的框架下執(zhí)行的。韓國承諾開設(shè)六個新的研究生課程,培訓(xùn) 5000 名人工智能專家,中國臺灣承諾到 2021 年使人工智能人才增加一倍。對勞動
32、力進(jìn)行培訓(xùn)。大多數(shù)戰(zhàn)略還考慮了人工智能革命對無技術(shù)傍身的勞動力的影響,因?yàn)樗麄兛赡艹蔀樽詣踊顺毕碌谝慌I(yè)者。盡管涉及倫理考慮,一些策略仍對重新培訓(xùn)計(jì)劃做出了實(shí)際承諾,以幫助受影響者找到新工作。歐盟計(jì)劃的主要目標(biāo)之一就是“調(diào)整我們的學(xué)習(xí)培訓(xùn)計(jì)劃和系統(tǒng),使社會為迎接人工智能做好充分準(zhǔn)備”,也是其成員國計(jì)劃的主要目標(biāo)。例如,英國將啟動一項(xiàng)超過 7000 萬歐元的再培訓(xùn)計(jì)劃,以幫助人們獲得數(shù)字化技能,德國宣布了“國家進(jìn)一步培訓(xùn)策略”。墨西哥的策略強(qiáng)調(diào)了計(jì)算思維和數(shù)學(xué)在終身教學(xué)中的重要性,包括幫助公民進(jìn)行再培訓(xùn);印度承諾促進(jìn)非正式培訓(xùn)機(jī)構(gòu)的發(fā)展,并為員工學(xué)習(xí)新技能創(chuàng)造經(jīng)濟(jì)激勵。促進(jìn)部門之間以及國家之
33、間的合作。例如,印度采用共享方法,其戰(zhàn)略提出的“人工智能庫”概念意味著由印度開發(fā)的基于人工智能的解決方案可推廣至面臨相似問題的發(fā)展中經(jīng)濟(jì)體。美國有關(guān)人工智能的行政命令則旨在“促進(jìn)有利于美國人工智能的國際環(huán)境”,同時保持美國相對于“外國對手”的技術(shù)優(yōu)勢。而歐盟成員國的戰(zhàn)略更傾向于跨國合作。例如,瑞典表示有必要與其他國家特別是歐盟國家發(fā)展伙伴關(guān)系和合作;丹麥戰(zhàn)略強(qiáng)調(diào)要與其他歐洲國家展開緊密合作。促進(jìn)包容性和社會發(fā)展。技術(shù)民主化有望減少社會不平等現(xiàn)象,因此,包容性和社會發(fā)展是許多國家級人工智能倡議,尤其是發(fā)展中經(jīng)濟(jì)體的倡議的重要目標(biāo)。如,印度戰(zhàn)略的重點(diǎn)在于提高更好地獲取醫(yī)療保健資源的可能性,促進(jìn)先前
34、被排除在正規(guī)金融產(chǎn)品之外的群體的經(jīng)濟(jì)增長,以及利用數(shù)據(jù)為規(guī)模較小的農(nóng)民提供幫助。墨西哥戰(zhàn)略的主要目標(biāo)包括包容性、生產(chǎn)力民主化、促進(jìn)性別平等等。法國致力于發(fā)展“具有包容性”的人工智能,以探索可降低社會和經(jīng)濟(jì)不平等性的策略。責(zé)任劃分。確定誰應(yīng)對人工智能的行為舉止負(fù)責(zé)非常重要,然而不論是從倫理還是法律上這都具有挑戰(zhàn)性。當(dāng)前,最有可能的方法是將人工智能視為相關(guān)人類行為者的法律責(zé)任,即開發(fā)人員、用戶、供應(yīng)商等人手中的工具。然而,這一框架無法應(yīng)對由人工智能帶來的特殊挑戰(zhàn),且存在很多灰色區(qū)域。例如,一臺機(jī)器會進(jìn)行學(xué)習(xí),并通過多次迭代變得與初始編程有所不同,而這可能會造成更難將其行為責(zé)任劃分給程序員。(二)應(yīng)
35、對人工智能治理的挑戰(zhàn)目前,關(guān)于人工智能治理有兩個主要的國際框架,即歐盟框架和經(jīng)合組織框架。2018 年 4 月,歐盟委員會發(fā)布的人工智能戰(zhàn)略,包括全面的投資計(jì)劃、如何應(yīng)對復(fù)雜的社會經(jīng)濟(jì)變化,并提出一套單獨(dú)的倫理準(zhǔn)則。2019 年 5 月,經(jīng)合組織發(fā)布的人工智能原則,當(dāng)時有 42 個國家采用。經(jīng)合組織框架對使用人工智能提出了五項(xiàng)基本原則,并為政府實(shí)施這些原則提出了建議。上述框架在不同程度上解決了本報告指出的道德和倫理困境,但彼此之間也存在明顯差異。關(guān)于環(huán)境問題。經(jīng)合組織提出發(fā)展可為地球帶來積極影響(包括保護(hù)自然環(huán)境)的人工智能,但并未提出實(shí)現(xiàn)目標(biāo)的方法,也 未提及任何需要考慮的具體環(huán)境挑戰(zhàn)。歐盟
36、的人工智能通訊 并未討論環(huán)境問題。但是,其附帶的倫理準(zhǔn)則是基于傷害預(yù)防原 則制定的,其中包括對自然環(huán)境和所有生物的傷害。社會和環(huán)境 福祉(包括可持續(xù)性和“環(huán)境友好型”)是歐盟對可信賴人工智 能的要求之一,其評估清單上包括對環(huán)境或動物風(fēng)險的明確考量。另外,歐盟還就如何實(shí)現(xiàn)這一目標(biāo)提供了具體范例(例如,對整個供應(yīng)鏈中的資源使用和能源消耗進(jìn)行嚴(yán)格評估)。關(guān)于對心理的影響問題。兩個框架均未考慮人工智能對社會心理的影響。但是歐盟提出了要考慮社會福祉的要求,這確實(shí)涉及“社會影響”,包括可能出現(xiàn)的社會關(guān)系變化、社會技能的喪失等。歐盟的倫理準(zhǔn)則也指出,必須“認(rèn)真監(jiān)管和考慮”此類影響,且與人類互動的人工智能必須清楚地表明其社交互動是模擬而來。關(guān)于對勞動力市場影響問題。經(jīng)合組織發(fā)布的人工智能原則中第一項(xiàng)原則(包容性增長、可持續(xù)發(fā)展與福祉)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024生豬買賣合同協(xié)議書范本
- 個人勞動合同(2024版)4篇
- 2025年度新能源產(chǎn)業(yè)借款合同綠色能源發(fā)展支持3篇
- 2025年度二手房買賣居間服務(wù)與鄰里關(guān)系協(xié)調(diào)合同正本4篇
- 2025年度新能源車輛采購代理合同終止協(xié)議范本3篇
- 2025年油氣儲罐安全監(jiān)控系統(tǒng)銷售合同范本4篇
- 2025年高校食堂食品安全與營養(yǎng)餐配送服務(wù)協(xié)議3篇
- 文化視角下的兒童交通行為分析與引導(dǎo)策略研究
- 2025版農(nóng)戶小麥種植保險及購銷保障合同2篇
- 2025版互聯(lián)網(wǎng)廣告內(nèi)容審核與發(fā)布協(xié)議3篇
- 2024-2030年中國海泡石產(chǎn)業(yè)運(yùn)行形勢及投資規(guī)模研究報告
- 動物醫(yī)學(xué)類專業(yè)生涯發(fā)展展示
- 2024年同等學(xué)力申碩英語考試真題
- 消除“艾梅乙”醫(yī)療歧視-從我做起
- 非遺文化走進(jìn)數(shù)字展廳+大數(shù)據(jù)與互聯(lián)網(wǎng)系創(chuàng)業(yè)計(jì)劃書
- 科普知識進(jìn)社區(qū)活動總結(jié)與反思
- 現(xiàn)金日記賬模板(帶公式)
- 消化內(nèi)科專科監(jiān)測指標(biāo)匯總分析
- 混凝土結(jié)構(gòu)工程施工質(zhì)量驗(yàn)收規(guī)范
- 肝性腦病患者的護(hù)理措施課件
- 大跨度斜拉橋上部結(jié)構(gòu)施工技術(shù)(圖文并茂)
評論
0/150
提交評論