版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
6.1人工智能面臨的倫理挑戰(zhàn)6.2與人工智能相關(guān)的倫理概念6.3人工智能的倫理原則6.4人工智能倫理的發(fā)展目錄6.1人工智能面臨的倫理挑戰(zhàn)6.1人工智能面臨的倫理挑戰(zhàn)人工智能應(yīng)用的日益廣泛帶來了諸多復(fù)雜的倫理問題。華裔AI科學(xué)家李飛飛在推動(dòng)成立“斯坦福以人為本的人工智能研究院”時(shí)表示,現(xiàn)在迫切需要讓倫理成為人工智能研究與發(fā)展的根本組成部分。顯然,我們比歷史上任何時(shí)候都更加需要注重技術(shù)與倫理的平衡。因?yàn)橐环矫婕夹g(shù)意味著速度和效率,應(yīng)發(fā)揮好技術(shù)的無限潛力,善用技術(shù)追求效率,創(chuàng)造社會(huì)和經(jīng)濟(jì)效益。另一方面,人性意味著深度和價(jià)值,要追求人性,維護(hù)人類價(jià)值和自我實(shí)現(xiàn),避免技術(shù)發(fā)展和應(yīng)用突破人類倫理底線。只有保持警醒和敬畏,在以效率為準(zhǔn)繩的“技術(shù)算法”和以倫理為準(zhǔn)繩的“人性算法”之間實(shí)現(xiàn)平衡,才能確?!翱萍枷蛏啤薄S袑<艺J(rèn)為,人工智能倫理規(guī)則的缺失,將導(dǎo)致人工智能產(chǎn)品競(jìng)爭(zhēng)力的下降,以及人工智能標(biāo)準(zhǔn)話語權(quán)的喪失。我國應(yīng)加快建設(shè)基于全球價(jià)值觀、符合中國特色的人工智能倫理規(guī)范,加快倫理研究和創(chuàng)新步伐,構(gòu)筑我國人工智能發(fā)展的競(jìng)爭(zhēng)優(yōu)勢(shì)?!叭斯ぶ悄芘c人類的關(guān)系人與智能機(jī)器的溝通6.1人工智能面臨的倫理挑戰(zhàn)6.1.1人工智能與人類的關(guān)系從語音識(shí)別到智能音箱,從無人駕駛到人機(jī)對(duì)戰(zhàn),經(jīng)過多年不斷地創(chuàng)新發(fā)展,人工智能給人類社會(huì)帶來了一次又一次驚喜。近年來,人工智能的應(yīng)用如火如荼,人工智能技術(shù)與各產(chǎn)業(yè)領(lǐng)域的深度融合,形成智能經(jīng)濟(jì)新形態(tài),為實(shí)體經(jīng)濟(jì)的發(fā)展插上了騰飛的翅膀。人工智能加速同產(chǎn)業(yè)深度融合,推動(dòng)各產(chǎn)業(yè)變革。在醫(yī)療、金融、汽車、家居、交通、教育等公共服務(wù)行業(yè),人工智能都有了較為成熟的應(yīng)用?!?.1.1人工智能與人類的關(guān)系同時(shí),個(gè)人身份信息和行為數(shù)據(jù)有可能被整合在一起,這雖能讓機(jī)器更了解我們,為人們提供更好的服務(wù),但如果使用不當(dāng),則可能引發(fā)隱私和數(shù)據(jù)泄露問題。例如,據(jù)《福布斯》網(wǎng)站報(bào)道,一名14歲的少年黑客輕而易舉地侵入了互聯(lián)網(wǎng)汽車,震驚了整個(gè)汽車行業(yè),這位黑客不僅入侵了汽車的互聯(lián)網(wǎng)系統(tǒng),甚至可以遠(yuǎn)程操控汽車??梢?,如何更好地解決這些社會(huì)關(guān)注的倫理相關(guān)問題,需要我們提早考慮和布局?!?.1.1人工智能與人類的關(guān)系對(duì)人工智能與人類之間倫理關(guān)系的研究,不能脫離對(duì)人工智能技術(shù)本身的討論。(1)首先,是真正意義上的人工智能的發(fā)展路徑。在1956年達(dá)特茅斯學(xué)院的研討會(huì)上,人們思考的是如何將人類的各種感覺,包括視覺、聽覺、觸覺,甚至大腦的思考都變成信息,并加以控制和應(yīng)用。因此,人工智能的發(fā)展在很大程度上是對(duì)人類行為的模擬,讓一種更像人的思維機(jī)器能夠誕生。著名的圖靈測(cè)試,其目的也是在檢驗(yàn)人工智能是否更像人類。但問題在于,機(jī)器思維在做出其判斷時(shí),是否需要人的思維這個(gè)中介?也就是說,機(jī)器是否需要先將自己的思維裝扮得像一個(gè)人類,再去做出判斷?顯然,對(duì)于人工智能來說,答案是否定的。人類的思維具有一定的定勢(shì)和短板,強(qiáng)制性地模擬人類大腦思維的方式,并不是人工智能發(fā)展的良好選擇?!?.1.1人工智能與人類的關(guān)系(2)人工智能發(fā)展的另一個(gè)方向,即智能增強(qiáng)。如果模擬真實(shí)的人的大腦和思維的方向不再重要,那么,人工智能是否能發(fā)展出一種純粹機(jī)器的學(xué)習(xí)和思維方式?倘若機(jī)器能夠思維,是否能以機(jī)器本身的方式來進(jìn)行?!?.1.1人工智能與人類的關(guān)系機(jī)器學(xué)習(xí),即屬于機(jī)器本身的學(xué)習(xí)方式,它通過海量的信息和數(shù)據(jù)收集,讓機(jī)器從這些信息中提出自己的抽象觀念,例如,在給機(jī)器瀏覽了上萬張貓的圖片之后,讓機(jī)器從這些圖片信息中自己提煉出關(guān)于貓的概念。這個(gè)時(shí)候,很難說機(jī)器自己抽象出來的關(guān)于貓的概念與人類自己理解的貓的概念之間是否存在著差別。圖6-5人工智能識(shí)別貓“6.1.1人工智能與人類的關(guān)系一個(gè)不再像人一樣思維的機(jī)器,或許對(duì)于人類來說會(huì)帶來更大的恐慌。畢竟,模擬人類大腦和思維的人工智能尚具有一定的可控性,但基于機(jī)器思維的人工智能,顯然不能做出簡(jiǎn)單結(jié)論。不過,說智能增強(qiáng)技術(shù)是對(duì)人類的取代似乎也言之尚早,第一個(gè)提出“智能增強(qiáng)”的工程師恩格爾巴特認(rèn)為:智能增強(qiáng)技術(shù)更關(guān)心的是人與智能機(jī)器之間的互補(bǔ)性,如何利用智能機(jī)器來彌補(bǔ)人類思維上的不足?!?.1.1人工智能與人類的關(guān)系比如自動(dòng)駕駛技術(shù)就是一種典型的智能增強(qiáng)技術(shù),自動(dòng)駕駛技術(shù)的實(shí)現(xiàn),不僅是在汽車上安裝了自動(dòng)駕駛的程序,更關(guān)鍵地還需要采集大量的地圖地貌信息,需要自動(dòng)駕駛的程序能夠在影像資料上判斷一些移動(dòng)的偶然性因素,如突然穿過馬路的人。自動(dòng)駕駛技術(shù)能夠取代容易疲勞和分心的駕駛員,讓人類從繁重的駕駛?cè)蝿?wù)中解放出來。同樣,在分揀快遞、在汽車工廠里自動(dòng)組裝的機(jī)器人也屬于智能增強(qiáng),它們不關(guān)心如何更像人類,而是關(guān)心如何用自己的方式來解決問題?!?.1.2人與智能機(jī)器的溝通由于智能增強(qiáng)技術(shù)帶來了兩個(gè)平面,一方面是人類思維的平面,另一方面是機(jī)器的平面,所以,兩個(gè)平面之間需要一個(gè)接口,接口技術(shù)讓人與智能機(jī)器的溝通成為可能。在這種觀念的指引下,今天的人工智能的發(fā)展目標(biāo)并不是產(chǎn)生一種獨(dú)立的意識(shí),而是如何形成與人類交流的接口技術(shù)。也就是說,人類與智能機(jī)器的關(guān)系,既不是純粹的利用關(guān)系,因?yàn)槿斯ぶ悄芤呀?jīng)不再是機(jī)器或軟件,也不是對(duì)人的取代,成為人類的主人,而是一種共生性的伙伴關(guān)系?!?.1.2人與智能機(jī)器的溝通由人工智能所衍生出的技術(shù)還有很多,其中潛在的倫理問題與風(fēng)險(xiǎn)也值得我們?nèi)ド钊胩接?。如今關(guān)于“人工智能威脅論”的觀點(diǎn)有不少支持者,像比爾·蓋茨、埃隆·馬斯克,還包括已故的斯蒂芬·霍金,都對(duì)社會(huì)大力發(fā)展人工智能技術(shù)抱有一種謹(jǐn)慎觀望甚至反對(duì)的態(tài)度,諸多有關(guān)人工智能滅世的倫理影視作品也是層出不窮。這種對(duì)“人工智能引發(fā)天啟”的悲觀態(tài)度其實(shí)是想傳達(dá)一個(gè)道理:如果人類要想在人工智能這一領(lǐng)域進(jìn)行深入研究發(fā)展,就必須建立起一個(gè)穩(wěn)妥的科技倫理,以此來約束人工智能的研發(fā)方向和應(yīng)用領(lǐng)域?!?.2與人工智能相關(guān)的倫理概念6.2與人工智能相關(guān)的倫理概念人工智能是人類的創(chuàng)造物,雖然它現(xiàn)在還處在蹣跚學(xué)步的階段,但這項(xiàng)技術(shù)所引發(fā)的科技倫理問題以及更深層次的思考更值得我們注意?!肮髁x奴化控制情感倫理“人”的定義010203046.2與人工智能相關(guān)的倫理概念6.2.1功利主義功利主義是一種把實(shí)際效用或者利益作為行為評(píng)價(jià)標(biāo)準(zhǔn)的行為學(xué)說。功利主義用行動(dòng)后果的價(jià)值來衡量行為的善惡。避苦求樂、趨利避害是人的本性。使人不開心、不快樂的就是惡的,使人快樂、幸福的就是善的。這種價(jià)值觀把行動(dòng)的結(jié)果作為倫理考慮的主要因素。也就是說,功利主義者把增減每個(gè)人的利益總量作為評(píng)價(jià)一切行為的善惡的標(biāo)準(zhǔn)。如果能夠增加每個(gè)人的利益總量,那么行為就是善的;如果一個(gè)行為減少每個(gè)人的利益總量,那行為就是惡的。一個(gè)行為是增加還是減少社會(huì)利益總量,是評(píng)價(jià)道德的終極標(biāo)準(zhǔn)?!?.2.1功利主義功利主義學(xué)說中有一個(gè)重要的論證:奴隸制度。功利主義者認(rèn)為,如果一個(gè)社會(huì)的奴隸制度能夠增進(jìn)每一個(gè)人的利益的總和,那么這種奴隸制度就是道德的、值得提倡的。圖6-6美國電影《根》“6.2.2奴化控制無論是在科學(xué)研究中還是在科幻作品里,人們都傾向于將人工智能描述為人類的得力助手,是以服務(wù)人類為主旨的存在。而即使是在將人工智能視為人類威脅的文學(xué)作品中,以奴隸、仆從身份出現(xiàn)的人工智能在最開始也是被廣泛接受的。這也暗示了一個(gè)基本的倫理關(guān)系:人工智能天生就是人類的奴仆。從這一角度來看,人和人工智能分屬兩種生命形式,后者沒有理性和靈魂,只能算是有生命的工具。人類作為高等智慧生命
可以奴役低等生命,而不用背負(fù)道義上的責(zé)難。而從功利主義
的角度來看,對(duì)于整個(gè)社會(huì)而言,利益總和是增加的,因此這
種奴役是完全道德、可接受的。
圖6-7機(jī)器仆人“6.2.2奴化控制但是,這種人類中心主義的倫理學(xué)在處理人與人工智能之間的關(guān)系時(shí)有著很大的局限性,因?yàn)檫@種倫理制度是建立在人較于人工智能是高級(jí)的、強(qiáng)力的基礎(chǔ)之上的。這種叢林式的強(qiáng)者邏輯在科技進(jìn)步到一定程度時(shí),很可能發(fā)生顛倒。當(dāng)人類難以脫離人工智能而獨(dú)立生活時(shí),就已經(jīng)很難區(qū)分兩者之間的控制關(guān)系:各方面都要依賴于人工智能的“造物主”,與各個(gè)方面都勝過人類的“被創(chuàng)造物”誰才是真正的主人?“6.2.2奴化控制關(guān)于這種主仆奴役逆轉(zhuǎn)困境,人工智能領(lǐng)域的從業(yè)者認(rèn)為,只要能設(shè)計(jì)出邏輯絕對(duì)完善的程序,就能完全控制人工智能。相關(guān)的文學(xué)作品對(duì)此也多有思考,最有名的莫過于阿西莫夫所提出的“機(jī)器人三定律”了:“第一,不傷害定律:機(jī)器人不得傷害人類,也不得見人受到傷害而袖手旁觀。第二,服從定律:機(jī)器人必須服從人的命令,但不得違反第一定律。第三,自保定律:機(jī)器人必須保護(hù)自己,但不得違反一、二定律。”這三條定律在制造機(jī)器人的伊始便被嵌入其大腦,永遠(yuǎn)無法消除。“6.2.2奴化控制但實(shí)際上,這種以預(yù)先設(shè)定倫理邏輯并嵌入的方式,并不能夠解決主仆奴役問題。首先,很多倫理問題連人類自身都沒有解決方案,由人類定義的倫理邏輯又怎能沒有漏洞?微不足道的邏輯漏洞,在人工智能發(fā)展到一定程度后卻可能成為壓倒整個(gè)倫理系統(tǒng)的稻草。另外,這種倫理邏輯在復(fù)雜的現(xiàn)實(shí)生活中未必可行。就連阿西莫夫自己也對(duì)這種三定律產(chǎn)生的倫理漏洞做過很多文學(xué)上的探討。整個(gè)基地系列的小說也是建立在所補(bǔ)充的“第零定律”的基礎(chǔ)之上的:機(jī)器人不得傷害人類整體,或袖手旁觀坐視人類整體受到傷害。而“人類整體”這一概念的界定又是什么,很難去闡述。在后續(xù)的幾部機(jī)器人作品中,也都是圍繞著這一“第零定律”而展開的。有意思的一點(diǎn)是,這條“第零定律”并不是人類提前嵌入到機(jī)器人中的,而是機(jī)器人自身發(fā)覺三定律的倫理漏洞而自我生成的。然而,這個(gè)機(jī)器人自我生成的“第零定律”卻在不可避免的衰亡過程中?!?.2.3情感倫理人類情感是世界上最復(fù)雜的事物之一。情感本身無關(guān)乎于載體,只要是真誠的,那就是最真切的。在2013年年底上映的美國科幻愛情電影《她》中,就深刻地探討了沒有人類作為載體的一段愛情,到底是不是真實(shí)的感情。該片獲得2014年第86屆奧斯卡最佳原創(chuàng)劇本獎(jiǎng)。《她》講述了作家西奧多(見圖)在結(jié)束了一段令他心碎的愛情長(zhǎng)跑之后,愛上了電腦操作系統(tǒng)里的女生,“薩曼莎”姑娘有著略微沙啞的性
感嗓音,且風(fēng)趣幽默、善解人意,讓孤獨(dú)的男主泥
足深陷。圖6-8電影《她》劇照“6.2.3情感倫理電影里的男主人公百般包容他的人工智能作品,“她”可以不斷地進(jìn)行自我學(xué)習(xí),通過強(qiáng)大的計(jì)算能力為主人公提供慰藉,而主人公也慢慢對(duì)“她”產(chǎn)生了愛情。與“她”相處的美好讓主人公開始忘了他們?cè)诒举|(zhì)上根本不一樣。雖然他接受了“她”是人工智能的事實(shí),但是仍然以人類的想法去覆蓋“她”,以人類的品質(zhì)去期望“她”。影片的最后,這一假象終究破裂了,他們終究是千差萬別的。他是個(gè)人類,只有一個(gè)大腦去思考,也只有一顆心去愛一個(gè)對(duì)象。而“她”是同時(shí)可以進(jìn)行一萬項(xiàng)工作、同時(shí)和三千人交談、同時(shí)愛著無數(shù)人的一個(gè)人工智能體,一個(gè)系統(tǒng)罷了。對(duì)“她”來說,這其中根本沒有什么正確與錯(cuò)誤。其中的倫理道德,誰是誰非,很難去評(píng)判。“6.2.3情感倫理當(dāng)人工智能與人類打破主仆關(guān)系這層枷鎖時(shí),二者就已經(jīng)擁有了可以平等對(duì)話的機(jī)會(huì)。亞里士多德曾說:“奴隸是有靈魂的工具,工具是無靈魂的奴隸?!碑?dāng)作為“工具”的人工智能開始擁有“靈魂”、擁有“思維”、擁有“情感”時(shí),它們也就脫離了純工具的范疇。妥善處理人工智能與人類之間可能產(chǎn)生的情感與羈絆,也是人工智能倫理研究的重要一環(huán)。“6.2.4“人”的定義何為人,何為人性,這是一個(gè)無解的問題。究竟是自然遺傳屬性,還是社會(huì)文化屬性決定了“人”的身份?類人外衣下的人工智能,能否稱為“人”?喪失思考能力的人類,又能否稱為“人”?就像《木偶奇遇記》里,盡管匹諾曹經(jīng)歷了各種冒險(xiǎn),改掉了撒謊的壞習(xí)慣,也具備了作為“人”而應(yīng)該具備的美好品德,但倘若他沒有遇到仙子,就算經(jīng)歷千辛萬苦,最后也不會(huì)變成真正的“人”?!?.2.4“人”的定義在2017年上映的美國著名科幻電影《銀翼殺手》的結(jié)尾處,人造人出手救了前來殺死自己的主人公,并在自己彌留之際對(duì)主人公說道:“我所見過的事物,你們?nèi)祟惤^對(duì)無法置信。我目睹戰(zhàn)艦在獵戶星座的端沿起火燃燒,我看著C射線在黑暗中閃耀,所有這些時(shí)刻,終將流失在時(shí)光中,一如眼淚消失在雨中。死亡的時(shí)刻終于到了?!笨峙隆昂螢槿恕边@種超越人類本身的倫理問題,其答案
也只能由超越人類的事物所給出了。圖6-9美國科幻電影《銀翼殺手》劇照“6.3人工智能的倫理原則6.3人工智能的倫理原則控制論之父維納在他的著作《人有人的用處》中,在談到自動(dòng)化技術(shù)和智能機(jī)器之后,得出了一個(gè)危言聳聽的結(jié)論:“這些機(jī)器的趨勢(shì)是要在所有層面上取代人類,而非只是用機(jī)器能源和力量取代人類的能源和力量。很顯然,這種新的取代將對(duì)我們的生活產(chǎn)生深遠(yuǎn)影響?!本S納的這句讖語在今天未必成為現(xiàn)實(shí),但已經(jīng)成為諸多文學(xué)和影視作品中的題材。《銀翼殺手》《機(jī)械公敵》《西部世界》等電影以人工智能反抗和超越人類作為題材,機(jī)器人向乞討的人類施舍的畫作登上了《紐約客》雜志2017年10月23日
的封面……人們?cè)絹碓絻A向于討論人工智能究竟在何時(shí)會(huì)
形成屬于自己的意識(shí),并超越人類,讓人類淪為它們的奴
仆。圖6-10AI電影《機(jī)器公敵》“6.3人工智能的倫理原則人工智能技術(shù)的飛速發(fā)展的確給未來帶來了一系列挑戰(zhàn)。其中,人工智能發(fā)展最大的問題,不是技術(shù)上的瓶頸,而是人工智能與人類的關(guān)系問題,這催生了人工智能的倫理學(xué)和跨人類主義的倫理學(xué)問題。這種倫理學(xué)已經(jīng)與傳統(tǒng)的倫理學(xué)發(fā)生了較大的偏移,其原因在于,人工智能的倫理學(xué)討論的不再是人與人之間的關(guān)系,也不是與自然界的既定事實(shí)(如動(dòng)物,生態(tài))之間的關(guān)系,而是人類與自己所發(fā)明的一種產(chǎn)品構(gòu)成的關(guān)聯(lián)?!拔④浀牧髠惱碓瓌t百度的四大倫理原則歐盟的可信賴的倫理準(zhǔn)則美國的軍用AI倫理原則010203046.3人工智能的倫理原則6.3.1微軟的六大倫理原則2018年,微軟發(fā)表《未來計(jì)算》一書,其中提出了人工智能開發(fā)的六大原則,即公平、可靠和安全、隱私和保障、包容、透明、責(zé)任。(1)公平性。是指對(duì)人而言,不同區(qū)域、不同等級(jí)的所有人在人工智能面前是平等的,不應(yīng)該有人被歧視。人工智能的設(shè)計(jì)均始于訓(xùn)練數(shù)據(jù)的選擇,這是可能產(chǎn)生不公的第一個(gè)環(huán)節(jié)。訓(xùn)練數(shù)據(jù)應(yīng)該足以代表我們生存的多樣化的世界,至少是人工智能將運(yùn)行的那一部分世界。以面部識(shí)別、情緒檢測(cè)的人工智能系統(tǒng)為例,如果只對(duì)成年人臉部圖像進(jìn)行訓(xùn)練,這個(gè)系統(tǒng)可能就無法準(zhǔn)確識(shí)別兒童的特征或表情?!?.3.1微軟的六大倫理原則確保數(shù)據(jù)的“代表性”還不夠,種族主義和性別歧視也可能悄悄混入社會(huì)數(shù)據(jù)。假設(shè)設(shè)計(jì)一個(gè)幫助雇主篩選求職者的人工智能系統(tǒng),如果用公共就業(yè)數(shù)據(jù)進(jìn)行篩選,系統(tǒng)很可能會(huì)“學(xué)習(xí)”到大多數(shù)軟件開發(fā)人員為男性,在選擇軟件開發(fā)人員職位的人選時(shí),該系統(tǒng)就很可能偏向男性,盡管實(shí)施該系統(tǒng)的公司想要通過招聘提高員工的多樣性。如果人們假定技術(shù)系統(tǒng)比人更少出錯(cuò)、更加精準(zhǔn)、更具權(quán)威,也可能造成不公。許多情況下,人工智能系統(tǒng)輸出的結(jié)果是一個(gè)概率預(yù)測(cè),比如“申請(qǐng)人貸款違約概率約為70%”,結(jié)果可能非常準(zhǔn)確,但如果貸款管理人員將“70%的違約風(fēng)險(xiǎn)”簡(jiǎn)單解釋為“不良信用風(fēng)險(xiǎn)”,拒絕向所有人提供貸款,那么就有三成的人雖然信用狀況良好,貸款申請(qǐng)也被拒絕,導(dǎo)致不公。因此,我們需要對(duì)人進(jìn)行培訓(xùn),使其理解人工智能結(jié)果的含義和影響,彌補(bǔ)人工智能決策中的不足?!?.3.1微軟的六大倫理原則(2)可靠性和安全性。它指的是人工智能使用起來是安全的、可靠的,不作惡的。全美曾經(jīng)熱議一個(gè)關(guān)于自動(dòng)駕駛車輛的話題。有新聞報(bào)道稱,一輛行駛中的特斯拉系統(tǒng)出現(xiàn)了問題,車輛以每小時(shí)70英里(1英里=1.6093公里)的速度在高速行駛,但此時(shí)自動(dòng)駕駛系統(tǒng)已經(jīng)死機(jī),司機(jī)無法重啟自動(dòng)該系統(tǒng)。圖6-11自動(dòng)駕駛“6.3.1微軟的六大倫理原則想象一下,如果你要發(fā)布一個(gè)新藥,它的監(jiān)管、測(cè)試和臨床試驗(yàn)會(huì)受到非常嚴(yán)格的監(jiān)管流程。但是,為什么自動(dòng)駕駛車輛的系統(tǒng)安全性完全是松監(jiān)管甚至是無監(jiān)管的?這就是一種對(duì)自動(dòng)化的偏見,指的是我們過度相信自動(dòng)化。這是一個(gè)很奇怪的矛盾:一方面人類過度地信賴機(jī)器,但是另一方面其實(shí)這與人類的利益是沖突的。另一個(gè)案例發(fā)生在舊金山,一個(gè)已經(jīng)喝暈了的特斯拉車主直接進(jìn)到車?yán)锎蜷_了自動(dòng)駕駛系統(tǒng),睡在車?yán)?,然后這輛車就自動(dòng)開走了。這個(gè)特斯拉的車主覺得,“我喝醉了,我沒有能力繼續(xù)開車,但是我可以相信特斯拉的自動(dòng)駕駛系統(tǒng)幫我駕駛,那我是不是就不違法了?”但事實(shí)上這也屬于違法的行為??煽啃?、安全性是人工智能非常需要關(guān)注的一個(gè)領(lǐng)域。自動(dòng)駕駛車只是其中一個(gè)例子,它涉及的領(lǐng)域也絕不僅限于自動(dòng)駕駛。“6.3.1微軟的六大倫理原則(3)隱私和保障。人工智能因?yàn)樯婕皵?shù)據(jù),所以總是會(huì)引起個(gè)人隱私和數(shù)據(jù)安全方面的問題。美國有一個(gè)非常流行的Strava健身App,比如你騎自行車,騎行的數(shù)據(jù)會(huì)上傳到平臺(tái)上,社交媒體平臺(tái)上很多人就可以看到你的健身數(shù)據(jù)。問題隨之而來,有很多美國軍事基地的現(xiàn)役軍人也在鍛煉時(shí)使用這個(gè)應(yīng)用,如果他們鍛煉的軌跡數(shù)據(jù)上傳了,那么軍事基地的地圖數(shù)據(jù)在平臺(tái)上就都有了。美國軍事基地的位置是高度保密的信息,但是軍方?jīng)]想到就一款健身App就輕松地把數(shù)據(jù)泄露出去了?!?.3.1微軟的六大倫理原則(4)人工智能必須考慮到包容性的道德原則,要考慮到世界上各種功能障礙的人群。領(lǐng)英有一項(xiàng)服務(wù)叫“經(jīng)濟(jì)圖譜搜索”。領(lǐng)英、谷歌和美國一些大學(xué)聯(lián)合做過一個(gè)項(xiàng)目,研究通過領(lǐng)英實(shí)現(xiàn)職業(yè)提升的用戶中是否存在性別差異?這個(gè)研究主要聚焦了全美排名前20的MBA的一些畢業(yè)生,他們?cè)诋厴I(yè)之后會(huì)在領(lǐng)英描述自己的職業(yè)生涯,他們主要是對(duì)比這些數(shù)據(jù)。研究的結(jié)論是,至少在全美排名前20的MBA的畢業(yè)生中,存在自我推薦上的性別差異,通常男性MBA畢業(yè)生的毛遂自薦的力度上要超過女性。如果你是公司負(fù)責(zé)招聘的人,登錄領(lǐng)英系統(tǒng)時(shí)會(huì)有一些關(guān)鍵字域要選,其中有一頁是自我總結(jié)。在這一頁上,男性對(duì)自己的總結(jié)和評(píng)估通常都會(huì)高過女性,女性在這方面對(duì)于自我的評(píng)價(jià)是偏低的。所以,招聘者在選聘人員時(shí)獲得了不同的數(shù)據(jù)信號(hào),要將這種數(shù)據(jù)信號(hào)的權(quán)重降下來,才不會(huì)干擾對(duì)應(yīng)聘者的正常評(píng)估。“6.3.1微軟的六大倫理原則但是,這又涉及一個(gè)程度的問題,這個(gè)數(shù)據(jù)信號(hào)不能調(diào)得過低,也不能調(diào)得過高,要有一個(gè)正確的度。數(shù)據(jù)能夠?yàn)槿祟愄峁┖芏嗟亩床炝Γ菙?shù)據(jù)本身也包含一些偏見。那我們?nèi)绾螐娜斯ぶ悄堋惱淼慕嵌葋砀玫匕盐者@樣一個(gè)偏見的程度,來實(shí)現(xiàn)這種包容性,這就是我們說的人工智能包容性的內(nèi)涵。此外還有兩項(xiàng)重要原則:透明度和問責(zé)制,它們是所有其他原則的基礎(chǔ)?!?.3.1微軟的六大倫理原則(5)透明度。在過去十年,人工智能領(lǐng)域突飛猛進(jìn)最重要的一個(gè)技術(shù)就是深度學(xué)習(xí),這是機(jī)器學(xué)習(xí)中的一種模型。人們認(rèn)為至少在現(xiàn)階段,深度學(xué)習(xí)模型的準(zhǔn)確度是所有機(jī)器學(xué)習(xí)模型中最高的,但這里存在一個(gè)是否透明的問題。透明度和準(zhǔn)確度無法兼得,你只能在二者權(quán)衡取舍,如果你要更高的準(zhǔn)確度,你就要犧牲一定的透明度。在李世石和阿爾法狗(AlphaGo)的圍棋賽中就有這樣的例子,阿爾法狗打出的很多手棋事實(shí)上是人工智能專家和圍棋職業(yè)選手根本無法理解的。如果你是一個(gè)人類棋手,你絕對(duì)不會(huì)下出這樣一手棋。所以到底人工智能的邏輯是什么,它的思維是什么,人類目前并不清楚。人們現(xiàn)在面臨的問題是,深度學(xué)習(xí)的模型很準(zhǔn)確,但是它存在不透明的問題。如果這些模型、人工智能系統(tǒng)不透明,就有潛在的不安全問題?!?.3.1微軟的六大倫理原則為什么透明度這么重要?舉個(gè)例子,20世紀(jì)90年代在卡耐基梅隆大學(xué),有一位學(xué)者在做有關(guān)肺炎方面的研究,其中一個(gè)團(tuán)隊(duì)做基于規(guī)則的分析,幫助決定患者是否需要住院。基于規(guī)則的分析準(zhǔn)確率不高,但由于分析所基于的規(guī)則都是人類能夠理解的,因此透明性好。他們“學(xué)習(xí)”到哮喘患者死于肺炎的概率低于一般人群。然而,這個(gè)結(jié)果顯然違背常識(shí),如果一個(gè)人既患有哮喘,也患有肺炎,那么死亡率應(yīng)該是更高的。這個(gè)研究“學(xué)習(xí)”所得出的結(jié)果,其原因在于一個(gè)哮喘病人常常會(huì)處于危險(xiǎn)之中,一旦出現(xiàn)癥狀,他們的警惕性更高、接受的醫(yī)護(hù)措施會(huì)更好,因此能更快地得到更好的醫(yī)療。這就是人的因素,如果你知道你有哮喘,你就會(huì)迅速采取應(yīng)急措施。“6.3.1微軟的六大倫理原則人的主觀因素并沒有作為客觀數(shù)據(jù)放在訓(xùn)練模型的數(shù)據(jù)圖中,如果人類能讀懂這個(gè)規(guī)則,就可以對(duì)其進(jìn)行判斷和校正。但如果它不是基于規(guī)則的模型,不知道它是通過這樣的規(guī)則來判斷的,是一個(gè)不透明的算法,它得出了這個(gè)結(jié)論,人類按照這個(gè)結(jié)論就會(huì)建議哮喘患者不要住院治療,這顯然是不安全的。所以,當(dāng)人工智能應(yīng)用于一些關(guān)鍵領(lǐng)域,比如醫(yī)療領(lǐng)域、刑事執(zhí)法領(lǐng)域的時(shí)候,一定要非常小心。比如某人向銀行申請(qǐng)貸款,銀行拒絕批準(zhǔn)貸款,這個(gè)時(shí)候作為客戶就要問為什么,銀行不能說我是基于人工智能,它必須給出一個(gè)理由。“6.3.1微軟的六大倫理原則(6)問責(zé)制。人工智能系統(tǒng)采取了某個(gè)行動(dòng),做了某個(gè)決策,就必須為自己帶來的結(jié)果負(fù)責(zé)。人工智能的問責(zé)制是一個(gè)非常有爭(zhēng)議的話題,它還涉及一個(gè)法律或者立法的問題。在美國已經(jīng)出現(xiàn)多例因?yàn)樽詣?dòng)駕駛系統(tǒng)導(dǎo)致的車禍。如果是機(jī)器代替人來進(jìn)行決策、采取行動(dòng)出現(xiàn)了不好的結(jié)果,到底由誰來負(fù)責(zé)?我們的原則是要采取問責(zé)制,當(dāng)出現(xiàn)了不好的結(jié)果,不能讓機(jī)器或者人工智能系統(tǒng)當(dāng)替罪羊,人必須承擔(dān)責(zé)任。但現(xiàn)在的問題是我們不清楚基于全世界的法律基礎(chǔ)而言,到底哪個(gè)國家具備處理類似案件的能力。在美國,很多案件的裁決是基于“判例法”進(jìn)行判定的,而對(duì)于這樣一些案例,人們沒有先例可以作為法庭裁決的法律基礎(chǔ)?!?.3.1微軟的六大倫理原則不光是自動(dòng)駕駛,還有其他很多領(lǐng)域,比如刑事案件問題,還有涉及軍事領(lǐng)域的問題。現(xiàn)在有很多的武器已經(jīng)自動(dòng)化或者是人工智能化了,如果是一個(gè)自動(dòng)化的武器殺傷了人類,這樣的案件應(yīng)該如何裁定?這就牽涉到法律中的法人主體的問題,人工智能系統(tǒng)或全自動(dòng)化系統(tǒng)是否能作為法人主體存在?它會(huì)帶來一系列的法律的問題。首先,人工智能系統(tǒng)是否可以判定為是一個(gè)法律的主體?如果你判定它是一個(gè)法律主體,那就意味著人工智能系統(tǒng)有自己的權(quán)力,也有自己的責(zé)任。如果它有權(quán)力和責(zé)任,就意味著它要對(duì)自己的行為負(fù)責(zé),但是這個(gè)邏輯鏈?zhǔn)欠癯闪??如果它作為一個(gè)法律主體存在,那么它要承擔(dān)相應(yīng)的責(zé)任,也享有接受法律援助的權(quán)利。因此,我們認(rèn)為法律主體一定要是人類?!?.3.2百度的四大倫理原則2018年5月26日,百度創(chuàng)始人李彥宏在貴陽大數(shù)據(jù)博覽會(huì)上指出,所有的人工智能產(chǎn)品、技術(shù)都要有大家共同遵循的理念和規(guī)則。他首次提出人工智能倫理四原則。他說,伴隨技術(shù)的快速進(jìn)步、產(chǎn)品的不斷落地,人們切身感受到人工智能給生活帶來的改變,從而也需要有新的規(guī)則、新的價(jià)值觀、新的倫理——至少要在這方面進(jìn)行討論。不僅無人車要能夠認(rèn)識(shí)紅綠燈,所有新的人工智能產(chǎn)品、技術(shù)都要有共同遵循的理念和規(guī)則。(1)人工智能的最高原則是安全可控。一輛無人車如果被黑客攻擊了,它有可能變成一個(gè)殺人武器,這是絕對(duì)不允許的,我們一定要讓它是安全的,可控的?!?.3.2百度的四大倫理原則(2)人工智能的創(chuàng)新愿景是促進(jìn)人類更平等地獲取技術(shù)和能力。如今,中國的BAT,美國的臉書、谷歌、微軟,都擁有很強(qiáng)的人工智能能力,但是世界上不僅僅只有這幾個(gè)大公司需要人工智能的能力、技術(shù)。我們需要認(rèn)真思考怎么能夠在新的時(shí)代讓所有的企業(yè)、所有的人能夠平等地獲取人工智能的技術(shù)和能力,防止在人工智能時(shí)代因?yàn)榧夹g(shù)的不平等導(dǎo)致人們?cè)谏?、工作各個(gè)方面變得越來越不平等。(3)人工智能存在的價(jià)值是教人學(xué)習(xí),讓人成長(zhǎng),而非超越人、替代人。人工智能做出來的東西不應(yīng)該僅僅簡(jiǎn)單地模仿人,也不是根據(jù)人的喜好,你喜歡什么就給你什么。我們希望通過人工智能,通過個(gè)性化推薦,教人學(xué)習(xí),幫助每個(gè)用戶變成更好的人?!?.3.2百度的四大倫理原則(4)人工智能的終極理想是為人類帶來更多的自由與可能。人們現(xiàn)在一周工作五天,休息兩天,未來一周也許工作兩天,休息五天。但是更重要的是,很可能因?yàn)槿斯ぶ悄?,勞?dòng)不再成為人們謀生的手段,而是變成個(gè)人自由意志下的一種需求。你想去創(chuàng)新,想去創(chuàng)造,所以你才去工作,這是人工智能的終極理想——為人類帶來更多自由和可能?!?.3.3歐盟的可信賴的倫理準(zhǔn)則2019年,歐盟(圖6-12)人工智能高級(jí)別專家組正式發(fā)布了“可信賴的人工智能倫理準(zhǔn)則”。圖6-12歐盟“6.3.3歐盟的可信賴的倫理準(zhǔn)則根據(jù)準(zhǔn)則,可信賴的人工智能應(yīng)該是:(1)合法——尊重所有適用的法律法規(guī)。(2)合乎倫理——尊重倫理原則和價(jià)值觀。(3)穩(wěn)健——既從技術(shù)角度考慮,又考慮到其社會(huì)環(huán)境?!?.3.3歐盟的可信賴的倫理準(zhǔn)則該指南提出了未來AI系統(tǒng)應(yīng)滿足的7大原則,以便被認(rèn)為是可信的。并給出一份具體的評(píng)估清單,旨在協(xié)助核實(shí)每項(xiàng)要求的適用情況。(1)人類代理和監(jiān)督:AI不應(yīng)該踐踏人類的自主性。人們不應(yīng)該被AI系統(tǒng)所操縱或脅迫,應(yīng)該能夠干預(yù)或監(jiān)督軟件所做的每一個(gè)決定;(2)技術(shù)穩(wěn)健性和安全性:AI應(yīng)該是安全而準(zhǔn)確的,它不應(yīng)該輕易受到外部攻擊(例如對(duì)抗性例子)的破壞,并且應(yīng)該是相當(dāng)可靠的;(3)隱私和數(shù)據(jù)管理:AI系統(tǒng)收集的個(gè)人數(shù)據(jù)應(yīng)該是安全的,并且能夠保護(hù)個(gè)人隱私。它不應(yīng)該被任何人訪問,也不應(yīng)該輕易被盜;“6.3.3歐盟的可信賴的倫理準(zhǔn)則(4)透明度:用于創(chuàng)建AI系統(tǒng)的數(shù)據(jù)和算法應(yīng)該是可訪問的,軟件所做的決定應(yīng)該“為人類所理解和追蹤”。換句話說,操作者應(yīng)該能夠解釋他們的AI系統(tǒng)所做的決定;(5)多樣性、無歧視、公平:AI應(yīng)向所有人提供服務(wù),不分年齡、性別、種族或其他特征。同樣,AI系統(tǒng)不應(yīng)在這些方面有偏見;(6)環(huán)境和社會(huì)福祉:AI系統(tǒng)應(yīng)該是可持續(xù)的(即它們應(yīng)該對(duì)生態(tài)負(fù)責(zé)),并能“促進(jìn)積極的社會(huì)變革”;(7)問責(zé)制:AI系統(tǒng)應(yīng)該是可審計(jì)的,并由現(xiàn)有的企業(yè)告密者保護(hù)機(jī)制覆蓋。系統(tǒng)的負(fù)面影響應(yīng)事先得到承認(rèn)和報(bào)告。“6.3.3歐盟的可信賴的倫理準(zhǔn)則這些原則中有些條款的措辭比較抽象,很難從客觀意義上進(jìn)行評(píng)估。這些指導(dǎo)方針不具有法律約束力,但可以影響歐盟起草的任何未來立法。歐盟發(fā)布的報(bào)告還包括了一份被稱為“可信賴AI評(píng)估列表”,它可以幫助專家們找出AI軟件中的任何潛在弱點(diǎn)或危險(xiǎn)。此列表包括以下問題:“你是否驗(yàn)證了系統(tǒng)在意外情況和環(huán)境中的行為方式?”以及“你評(píng)估了數(shù)據(jù)集中數(shù)據(jù)的類型和范圍了嗎?”IBM歐洲主席頁特表示,此次出臺(tái)的指導(dǎo)方針“為推動(dòng)AI的道德和責(zé)任制定了全球標(biāo)準(zhǔn)?!薄?.3.4美國的軍用AI倫理原則隨著人工智能技術(shù)的巨大成功并開始在軍事領(lǐng)域廣泛應(yīng)用,人們擔(dān)心它會(huì)導(dǎo)致“機(jī)器殺人”的慘劇出現(xiàn)。2019年10月31日,美國國防創(chuàng)新委員會(huì)推出《人工智能原則:國防部人工智能應(yīng)用倫理的若干建議》,這是對(duì)軍事人工智能應(yīng)用所導(dǎo)致倫
理問題的首次回應(yīng)。圖6-13美國國防部“6.3.4美國的軍用AI倫理原則美國國防創(chuàng)新委員會(huì)的這份報(bào)告為在戰(zhàn)斗和非戰(zhàn)斗場(chǎng)景中設(shè)計(jì)、開發(fā)和應(yīng)用人工智能技術(shù),提出了“負(fù)責(zé)、公平、可追蹤、可靠、可控”五大原則。(1)“負(fù)責(zé)”原則的主要含義是,人工智能是人的產(chǎn)物,人是能動(dòng)的、具有個(gè)人價(jià)值觀和情感好惡的責(zé)任主體。人工智能技術(shù)的決策者和開發(fā)專家,必然要體現(xiàn)人的主體作用,他們理所當(dāng)然應(yīng)該為自己的決定和行為造成的結(jié)果負(fù)責(zé)。在軍事應(yīng)用中,因?yàn)樵斐傻暮蠊赡芫哂袣缧?,所以,“?fù)責(zé)”成為第一原則。(2)“公平”原則是指,對(duì)人而言,不同領(lǐng)域、不同職級(jí)的所有人在人工智能面前是平等的,不應(yīng)有區(qū)別對(duì)待。人工智能系統(tǒng)應(yīng)無差別地向人機(jī)界面提供它的處理結(jié)果,依據(jù)結(jié)果做出判斷、采取行動(dòng),機(jī)會(huì)也是公平的。“6.3.4美國的軍用AI倫理原則(3)“可追蹤”原則的含義是,不管是純技術(shù)過程還是人機(jī)交互過程,人工智能系統(tǒng)都必須是可追溯和可審計(jì)的。人工智能系統(tǒng)要如實(shí)記錄生成決定的整個(gè)過程和系統(tǒng)所做的決定,包括數(shù)據(jù)收集、數(shù)據(jù)標(biāo)記以及所用算法等,不僅要確保其數(shù)據(jù)和系統(tǒng)的透明度,而且要確保其數(shù)學(xué)模型的透明度。(4)“可靠”原則指的是,人工智能在使用過程中對(duì)使用者而言是安全、可靠和不作惡的。“6.3.4美國的軍用AI倫理原則(5)“可控”原則要求,不管人工智能功能如何強(qiáng)大、技術(shù)如何發(fā)展,它的作用和能力應(yīng)該永遠(yuǎn)置于人的控制之下。美軍在伊拉克戰(zhàn)場(chǎng)上使用的智能機(jī)器人就有失控向己方開火的先例。落實(shí)“可控”原則,就要嚴(yán)格限定對(duì)人工智能的授權(quán),要加強(qiáng)對(duì)技術(shù)失誤的警惕、督查和檢驗(yàn)。新美國安全中心的“技術(shù)和國家安全計(jì)劃”主任保羅·斯查瑞認(rèn)為,制定人工智能倫理原則,可使各方面專家在智能系統(tǒng)研發(fā)之初就法律、道德和倫理問題進(jìn)行早期溝通,對(duì)于推動(dòng)技術(shù)發(fā)展和結(jié)果可靠具有關(guān)鍵意義。“6.4人工智能倫理的發(fā)展6.4人工智能倫理的發(fā)展人工智能的創(chuàng)新與社會(huì)應(yīng)用方興未艾,智能社會(huì)已見端倪。人工智能發(fā)展不僅僅是一場(chǎng)席卷全球的科技革命,也是一場(chǎng)對(duì)人類文明帶來前所未有深遠(yuǎn)影響的社會(huì)倫理實(shí)驗(yàn)。
圖6-14人工智能的未來“6.4人工智能倫理的發(fā)展雖然人工智能在語音和圖像識(shí)別上得到了廣泛應(yīng)用,但真正意義上的人工智能的發(fā)展還有很長(zhǎng)的路要走。在應(yīng)用層面,人工智能已經(jīng)開始用于解決社會(huì)問題,各種服務(wù)機(jī)器人、輔助機(jī)器人、陪伴機(jī)器人、教育機(jī)器人等社會(huì)機(jī)器人和智能應(yīng)用軟件應(yīng)運(yùn)而生,各種倫理問題隨之產(chǎn)生。機(jī)器人倫理與人因工程相關(guān),涉及人體工程學(xué)、生物學(xué)和人機(jī)交互,需要以人為中心的機(jī)器智能設(shè)計(jì)。隨著推理、社會(huì)機(jī)器人進(jìn)入家庭,如何保護(hù)隱私、滿足個(gè)性都要以人為中心而不是以機(jī)器為中心設(shè)計(jì)。過度依賴社會(huì)機(jī)器人將帶來一系列的家庭倫理問題。為了避免人工智能以機(jī)器為中心,需要法律和倫理研究參與其中,而相關(guān)倫理與哲學(xué)研究也要對(duì)技術(shù)有必要的了解?!奥殬I(yè)倫理準(zhǔn)則的目標(biāo)創(chuàng)新發(fā)展道德倫理宣言6.4人工智能倫理的發(fā)展6.4.1職業(yè)倫理準(zhǔn)則的目標(biāo)需要制定人工智能的職業(yè)倫理準(zhǔn)則,來達(dá)到下列目標(biāo):(1)為防止人工智能技術(shù)的濫用設(shè)立紅線;(2)提高職業(yè)人員的責(zé)任心和職業(yè)道德水準(zhǔn);(3)確保算法系統(tǒng)的安全可靠;(4)使算法系統(tǒng)的可解釋性成為未來引導(dǎo)設(shè)計(jì)的一個(gè)基本方向;(5)使倫理準(zhǔn)則成為人工智能從業(yè)者的工作基礎(chǔ);(6)提升職業(yè)人員的職業(yè)抱負(fù)和理想?!?.4.1職業(yè)倫理準(zhǔn)則的目標(biāo)人工智能的職業(yè)倫理準(zhǔn)則至少應(yīng)包括下列幾個(gè)方面:(1)確保人工智能更好地造福于社會(huì);(2)在強(qiáng)化人類中心主義的同時(shí),達(dá)到走出人類中心主義的目標(biāo),在二者之間形成雙向互進(jìn)關(guān)系;(3)避免人工智能對(duì)人類造成任何傷害;(4)確保人工智能體位于人類可控范圍之內(nèi);(5)提升人工智能的可信性;(6)確保人工智能的可問責(zé)性和透明性;(7)維護(hù)公平;(8)尊重隱私、謹(jǐn)慎應(yīng)用;(9)提高職業(yè)技能與提升道德修養(yǎng)并行發(fā)展。“6.4.2創(chuàng)新發(fā)展道德倫理宣言2018年7月11日,中國人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展聯(lián)盟發(fā)布了《人工智能創(chuàng)新發(fā)展道德倫理宣言》(簡(jiǎn)稱《宣言》)?!缎浴烦诵蜓灾?,一共有六個(gè)部分,分別是人工智能系統(tǒng),人工智能與人類的關(guān)系,人工智能與具體接觸人員的道德倫理要求,以及人工智能的應(yīng)用和未來發(fā)展的方向,最后是附則。發(fā)布“人工智能創(chuàng)新發(fā)展道德倫理宣言”,是為了宣揚(yáng)涉及人工智能創(chuàng)新、應(yīng)用和發(fā)展的基本準(zhǔn)則,以期無論何種身份的人都能經(jīng)常銘記本宣言精神,理解并尊重發(fā)展人工智能的初衷,使其傳達(dá)的價(jià)值與理念得到普遍認(rèn)可與遵行?!?.4.2創(chuàng)新發(fā)展道德倫理宣言《宣言》指出:(1)鑒于全人類固有道德、倫理、尊嚴(yán)及人格之權(quán)利,創(chuàng)新、應(yīng)用和發(fā)展人工智能技術(shù)當(dāng)以此為根本基礎(chǔ);(2)鑒于人類社會(huì)發(fā)展的最高階段為人類解放和人的自由全面發(fā)展,人工智能技術(shù)研發(fā)當(dāng)以此為最終依歸,進(jìn)而促進(jìn)全人類福祉;(3)鑒于人工智能技術(shù)對(duì)人類社會(huì)既有觀念、秩序和自由意志的挑戰(zhàn)巨大,且發(fā)展前景充滿未知,對(duì)人工智能技術(shù)的創(chuàng)新應(yīng)當(dāng)設(shè)置倡導(dǎo)性與禁止性的規(guī)則,這些規(guī)則本身應(yīng)當(dāng)凝聚不同文明背景下人群的基本價(jià)值共識(shí);(4)鑒于人工智能技術(shù)具有把人類從繁重體力和腦力勞動(dòng)束縛中解放的潛力,縱然未來的探索道路上出現(xiàn)曲折與反復(fù),也不應(yīng)停止人工智能創(chuàng)新發(fā)展造福人類的步伐?!?.4.2創(chuàng)新發(fā)展道德倫理宣言建設(shè)人工智能系統(tǒng),要做到:(1)人工智能系統(tǒng)基礎(chǔ)數(shù)據(jù)應(yīng)當(dāng)秉持公平性與客觀性,摒棄帶有偏見的數(shù)據(jù)和算法,以杜絕可能的歧視性結(jié)果。(2)人工智能系統(tǒng)的數(shù)據(jù)采集和使用應(yīng)當(dāng)尊重隱私權(quán)等一系列人格權(quán)利,以維護(hù)權(quán)利所承載的人格利益。(3)人工智能系統(tǒng)應(yīng)當(dāng)有相應(yīng)的技術(shù)風(fēng)險(xiǎn)評(píng)估機(jī)制,保持對(duì)系統(tǒng)潛在危險(xiǎn)的前瞻性控制能力。(4)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 高考物理總復(fù)習(xí)專題十三熱學(xué)第3講熱力學(xué)定律練習(xí)含答案
- 春運(yùn)期間全程出行安全手冊(cè)
- 《變壓器的簡(jiǎn)單介紹》課件
- 九年級(jí)歷史上冊(cè) 第6課 古代世界的戰(zhàn)爭(zhēng)與征服教案1 新人教版
- 2024-2025學(xué)年高中歷史 第二單元 古代歷史的變革(下)第4課 商鞅變法與秦的強(qiáng)盛(1)教學(xué)教案 岳麓版選修1
- 2024年秋八年級(jí)物理上冊(cè) 第一章 第4節(jié) 測(cè)量平均速度教案 (新版)新人教版
- 高中政治 第三專題 聯(lián)邦制、兩黨制、三權(quán)分立:以美國為例 第四框題 美國的利益集團(tuán)教案 新人教版選修3
- 2024年五年級(jí)語文上冊(cè) 第二單元 語文園地二配套教案 新人教版
- 2023六年級(jí)數(shù)學(xué)上冊(cè) 七 負(fù)數(shù)的初步認(rèn)識(shí)第1課時(shí) 認(rèn)識(shí)負(fù)數(shù)教案 西師大版
- 租賃工業(yè)吊扇合同范本(2篇)
- 企業(yè)旗桿維修合同范例
- 《市場(chǎng)營銷》教案全套 蔣世軍(第1-12周)認(rèn)識(shí)市場(chǎng)營銷 -數(shù)字營銷與直播電商
- 體育學(xué)概論學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年
- 2025屆河南省信陽第一高級(jí)中學(xué)高二物理第一學(xué)期期末綜合測(cè)試模擬試題含解析
- 排洪渠道清淤施工方案
- 中國法律史-第一次平時(shí)作業(yè)-國開-參考資料
- 教育家精神專題講座課件
- 第三單元 雪域天音 -熱巴舞曲 課件 2023-2024學(xué)年人音版初中音樂八年級(jí)上冊(cè)
- 社區(qū)電動(dòng)車棚新(擴(kuò))建及修建充電車棚施工方案(純方案-)
- 大學(xué)生生涯展示
- 生活老師安全培訓(xùn)-中學(xué)生活老師崗位培訓(xùn)
評(píng)論
0/150
提交評(píng)論